就在前几天,小助理我在公众号后台看到这样一条留言:为什么用新买的小米10拍照四周总是很模糊。
这让我想起了之前我一个朋友也跟我抱怨过他买的小米10 Pro拍照总觉得糊,当时我完全没有放在心上。
因为小米10 Pro作为小米数字系列冲击高端的第一步,在拍摄上面也是下足功夫,曾经一度登顶dxo mark拍照排行榜。1/1.33寸的大底传感器带来更大的单位像素面积,高像素让照片的解析力变得更好,正常环境下拍摄应该不至于说模糊。
小米10 Pro目前与Find X2 Pro并列DXO拍照第三
而且作为年轻的“后浪”,每天不停地奔涌压力也挺大的,年纪轻轻得个花眼什么的也见怪不怪。
但如果是我们的摄友遇到这样的问题,那就必须要重视了。况且能关注人民攻摄,眼睛肯定是雪亮的。
我立马就拿攻摄里面的小米10随手拍摄几张照片观察情况。发现真的存在糊掉的情况。
可以看到照片中间画面的画质没有什么问题,清晰可见。但是四周边缘的文字出现了很明显的拖影。而且似乎离中心越远,拖影现象越严重。
我在网上查了一下,发现很多网友都出现这个问题,不仅仅是小米10,华为的P40系列、三星S20U也都出现了这种情况。
华为P40边缘模糊问题反馈
查完之后我又把目前攻摄里面闲置的手机全部翻出来挨个试了一遍。发现小米10、华为P40 pro、一加8、OPPO find x2这些2020年发布的安卓旗舰机无一幸免,在近距离拍摄照片时画面四周边缘都出现了不同程度的模糊。
在中远距离拍摄场景下情况会好很多。
而iPhone 11、OPPO reno3、三星note10等老款机型不管是近距离还是中远距离拍摄均没有出现四周边缘模糊的情况。
咋回事儿?历史退步?2020年的旗舰机这次拍照要集体翻车了吗?
网上有人解释说这种边缘模糊是因为大底大光圈所产生的景深虚化效果。但我觉得不对啊,从样张上看这已经不是虚不虚的问题了,这都产生拖影了,应该不是因为简单的浅景深虚化,肯定还有别的原因。
在请教了摄影大佬并仔细查阅资料后,终于被我找到了答案。
这种四周边缘部分画面模糊、有拖影的现象叫做慧差。这是一种常见的光学现象,当明亮区域或者高亮点时,明亮区域指向镜头边缘的方向会形成由细变宽的光斑或光晕,看起来像彗星的尾巴,所以叫彗星像差。
产生慧差的主要原因是由位于主轴外的某一轴外物点,向光学系统发出的单色圆锥形光束,经光学系统折射后,在理想平面处不能结成清晰点,而是结成了拖着明亮尾巴的彗星形光斑。
素材来自油管@Vebruce Vebruce
可是为什么2020年的旗舰手机拍照均产生了慧差现象,而2020以前发布的手机却没有呢?
这个要先从影响慧差这种误差的因素说起。
慧差的计算公式为:误差=3θ/16F²。其中分母θ是被拍摄物体到镜头连线与镜头主轴的角度。角度越大,慧差越明显,这就解释了为什么中心区域的画质清晰而四周模糊,且离中心越远越模糊。
而F为焦比(焦距/口径),在相机上基本等同于光圈。根据公式可得光圈越大,边缘的慧差会更明显,而今年的旗舰机普遍都用上了大光圈。
不过这不是一众机皇集体翻车的主要原因,顶多算推波助澜一下,主犯其实是今年大家都在跟进的大底传感器。
我们知道在手机拍摄上最大的物理限制就是空间,即使现在的手机已经越做越厚了,但对于复杂的光学电子成像系统来说还是捉襟见肘。
素材来自博主@Sean Chandler
大尺寸的传感器进一步压缩了摄像模组的内部空间,让模组内的后焦距变得更短。镜头和感光器是不可能完全紧贴的,后焦距就是镜头后组到感光器表面的距离。
较小的后焦距直接造成光线入射角度变大,对光学系统有非常不利的影响,导致画面四周边缘的画质受损严重。
除此之外,传感器四周的感光效率也会因此大打折扣。
图中传感器红色区域的感光效率受损
也就是说在保持后焦距相同的情况下,大底传感器四周的感光效率受到的影响比小底传感器更大,在良好光线下拍摄的画面边缘的成像质量可能会更差。
其实厂商们也起初大底的缺点,会用一些"小操作"适当的减小彗差现象。
大家普遍采用的方法是,在近距离拍摄时,将拍摄的镜头切换为超广角镜头,相较于主摄的大底,超广角镜头的底就要小不少,如此一来就能避免彗差现象。
Find X2 Pro镜头切换
而华为则更进一步,P40系列的主摄焦段为23mm,但是在默认情况下,主摄的焦段却为27mm,系统直接裁掉了边缘模糊部分,以此来保证整体画质。
P40 Pro焦段差距
不过这些只是治标不治本的方法,那么有没有办法从根本上让“鱼和熊掌兼得”呢?
还是有的,最好的办法是把手机做得再厚一点采用更高素质的镜头镜组。
摄像头镜组在手机成像的因素中经常被忽略,但其实它跟传感器的分辨率和单位像素大小一样,对画面的解析力有重要影响。镜组素质越高,画质就越好越清晰。
由于现实环境中的光线都是由不同波长的光组成的,而镜片对不同波长的光的折射率不一样,会不可避免地使物体成像的时候产生像差(慧差也属于像差的一种)。
镜组的另一个重要作用就是修正物体成像时的像差,当光线透过第一片镜片时产生的误差可以通过后面的镜片再次折射矫正。理论上镜组镜片数量越多,矫正效果就越好。
因此可以通过增加镜组镜片数量来抑制慧差。或者在设计镜组时就把慧差考虑进去,优化镜组结构,采用复合透镜,通过改变各个面的曲率半径来减少慧差。
不过优化镜组的成本可不低,镜组升级属于光学技术,与数字化技术不同,在原理上相对简单易实现。但是它难在对制造工艺和精度的要求极高,高精密产品的价格我们都懂,经常会高到让人觉得离谱,这个玩相机的朋友应该会感同身受。
这也是为什么最近几年手机厂商在相机硬件上而很少提及镜组的原因。第一是贵,第二是花了钱还不一定能做出效果。
但只要消费者开始重视起镜组,再贵厂商们也愿意尝试在镜组上发力。今年小米、华为、等厂商也都在自家的旗舰机上用上了8P镜片组(8层镜片),之前大部分手机用的都是6P或者7P镜组。
相信随着时间的推移,手机镜组素质会逐步赶上,与更大尺寸的CMOS形成更和谐完善的拍摄系统。
除此优化镜组之外的话就只能通过手机算法后期来改善这一问题了。毕竟处理器的运算能力才是手机拍摄的核心竞争力。
2020年,手机升级大底传感器和高像素是好是坏,我们应该辩证地来看待这个问题。摄像模组是一个复杂的光学电子系统,除了传感器,镜头素质和算法对画质同样影响巨大
通过牺牲光学性能来提升传感器素质这种做法是否真的值得呢?
我认为是不值得的,手机拍摄追求的是更高的画质和更好的拍摄体验,而不是用了几个摄像头、多少像素、多大的传感器。
拿这次安卓机皇集体翻车来说,我相信不管是学习还是工作近距离拍摄文档一定会用的到,任你夜景有多厉害、中心画质解析力有多强,拍出来四周是一片糊又有何意义?
就好像一个水桶,一旦其中一项成了短板,其他木板筑得再高再醒目也无法提升桶内的水位。
我们需要技术上的探索和突破,但最好是建立在日常拍照体验不受影响的前提下。
就这一点来说,苹果就做得比较好虽然也出现过硬镜片镀膜问题产生的“鬼影门”,但翻车次数较安卓还是少。
iPhone11系列到现在还没用上大底传感器,像素也是祖传的1200万,但是不管是拍照还是视频它能通过智能HDR、deep fusion、夜景、视频高动态 等算法优化带来优秀、均衡、完善的体验,充分压榨硬件的每一丝潜能。
但并不是安卓厂商不想像苹果一样等新技术体验完善后再下放产品,我相信他们的工程师肯定在手机上市前的测试中就发现了大底慧差问题,只是时间不等人,市场环境决定了安卓厂商们必须在手机拍摄上保持激进。
因为iOS系统苹果独占,你想用苹果生态就必须买苹果产品,市场竞争压力就小很多,这让它可以在2020年任性地用着三年前几乎一样的外观设计。
这你放安卓厂商上它敢吗?可能没到3年,公司就没了。毕竟安卓系统的选择余地太多了,厮杀激烈。
所以苹果可以求稳做体验,安卓必须谋变搞创新,不管到底有没有用、体验如何,至少要先带给消费者新鲜感,再后续全面优化完善。
我所担心的事情是现在苹果可以依靠算法在摄像硬件不占优势的情况下和一众国产安卓旗舰在拍摄上打的有来有回,各有胜负。
在将来苹果对更好的拍摄硬件调教完毕应用到产品上,抹平硬件差距后,对国产安卓旗舰机算不算一种降维打击?
那能怎么办呢?作为一名摄影、数码爱好者只能希望手机厂商们在营销与体验、创新与完善中找到合适的平衡点,少一些戾气、多一点交流,在合作与厮杀中走向更好的计算摄影时代。
奔涌吧,“安浪”。
I 参考材料
wiki百科:
https://zh.wikipedia.org/wiki/%E5%83%8F%E5%B7%AE
《为什么现在某些手机摄像头的慧差现象如此明显》 作者:夏昆冈
https://www.soomal.com/doc/10100008922
I 文中部分图片来自网络
聊一聊
你对这次大底翻车的看法
点赞关注评论,给社里加鸡腿