2020-03-02 10:56

iOS 13.2中的DeepFusion使iPhone11Pro的相机更加出色

导读当苹果推出iPhone 11,iPhone 11 Pro和iPhone 11 Pro Max以及改进的摄像头系统时,它还展示了一项名为Deep Fusion的功能。实际上,

当苹果推出iPhone 11,iPhone 11 Pro和iPhone 11 Pro Max以及改进的摄像头系统时,它还展示了一项名为Deep Fusion的功能。实际上,这将使本来已经令人印象深刻的相机变得更好,但是不幸的是,当9月份新款iPhone推出时,它尚未准备好供公众使用。

最后,随着iOS 13.2的公开发布,这种情况正在改变。Deep Fusion现在已向公众开放,这意味着使用iPhone 11和iPhone 11 Pro中的相机拍摄的照片将更加令人印象深刻-尤其是如果您想穿毛衣(这只是个玩笑)。

这是对一个非常复杂的过程的简单解释,该过程需要机器学习,单张照片多次曝光,并且所有东西都在后台组合在一起,以在特定情况下产生更好的照片。深度融合将不会被用于 每一个与iPhone 11的双摄像头或iPhone 11 Pro的三重摄像系统拍摄的照片,但我们的目标是,当它 确实在结果中得到挖掘自己说话。

这是Apple对功能的基本描述:

iOS 13.2引入了Deep Fusion,这是一种先进的图像处理系统,该系统在iPhone 11,iPhone 11 Pro和iPhone 11 Pro Max上使用A13仿生神经引擎捕获具有明显更好的纹理,细节并降低了低噪点的图像。

即使只是细节。

那么,为什么苹果要添加它呢?这全都取决于在中低照度场景下拍摄的照片的结果。那就是它的突出之处。但是,让我们继续前进,并先分解一下它的工作方式。

更好的低光图像,更少的噪音

使用Deep Fusion,当您按下相机快门按钮时,该软件已经从所捕获的内容中捕获了三帧。这样做是为了获得快速的快门速度,以使镜头定格。按下快门按钮后,该软件将捕获另外三个帧,同时捕获更长的曝光以获取更多细节。

为了达到Apple所说的“合成长镜头”,然后将三个普通帧与长时间曝光镜头组合在一起。

然后,深度融合将选择具有最详细信息的短曝光图像,然后将其与在背景中创建的合成长曝光自动结合。这两个框架融合在一起,仅此而已。(这至少是将Deep Fusion与Smart HDR功能区分开来的原因,至少在处理时如此。)

接下来,进行其他处理。逐个像素地拍摄需要经过另外四个步骤,所有步骤都在后台进行,并且基本上是瞬间完成,所有步骤都在努力寻找最细节。给定射击中的天空和墙壁在最低频段上起作用。头发,皮肤,织物和其他元素贯穿最高频段。深度融合将从提供给它的每个曝光中选择细节,以选择最精细的细节,色彩,亮度和色调作为最终照片。

完成所有操作后(再次,所有这些操作都在背景中以惊人的速度发生),最终图像便生成了。

本文顶部展示了Apple帮助演示Deep Fusion的镜头。到目前为止,Apple确实很喜欢炫耀与单个穿着毛衣的个人一起使用的Deep Fusion。

智能HDR

现在,如上所述,iPhone 11和iPhone 11 Pro中的摄像头系统将不再始终使用Deep Fusion,并且某些摄像头根本无法使用该功能。看起来是这样的:

长焦镜头将大部分使用Deep Fusion,但是当场景包括非常明亮的场景时,将启动Smart HDR(高动态范围)。标准的广角镜头将在深度到中等亮度的情况下使用Deep Fusion,而Smart HDR功能将在明亮到中等亮度的场景中激活。最后,iPhone 11 Pro的超广角镜头将永远不会使用Deep Fusion功能,因为它仅支持Smart HDR。

值得注意的是,Apple随最新iPhone推出的“夜间模式”功能主要用于处理弱光照片,而Deep Fusion则不适合该特定场景。

由于iPhone 11,iPhone 11 Pro和iPhone 11 Pro Max中提供了A13仿生处理器,因此可以进行Deep Fusion。结果,虽然这可能是旧版iPhone上的杀手级功能,但那些老化的设备将无法利用该功能。

摄影师,甚至是那些可能不会自称但无论如何都要认真对待照片的人,都可能会从Deep Fusion中获得最大收益。但是,对不是便宜设备的iPhone 11或iPhone 11 Pro等手机拍摄的照片进行的任何改进都是值得欢迎的。