热门关键词:

谷歌解释Pixel 3是怎样靠AI改进人像功能,让人像演算法变得更强

12-03
12-03,资讯谷歌解释Pixel 3是怎样靠AI改进人像功能,让人像演算法变得更强最新消息报导,手机发烧友资讯

跟前代相比,Google在AI上投入了那么多的资源,可见他们对单相机方案的决心是多么之大,Google今年出的Pixel 3系列在处理人像拍摄时的表现要来得更好。考虑到两者用的都是单颗主相机的设计,所以改进大部分还是来源于软体。Google究竟做了些些什么让Pixel 3的人像演算法变得更强?

在Pixel 2推出的时候,Google是利用神经网路和相机上的相位对焦技术(后者主要是跟视差效果有关)来确定拍摄时处于前景的对象。但这套方案在面对变化不大的场景时就容易出错,而且在以小光圈进行拍摄的时候也比较容易发生问题。为了改善这些,Google在Pixel 3上运用了新的神经网路,希望透过对象的常规形状,场景中不同点的清晰度等多项因素,来更准确地判断对象距离。另外在训练这套系统时,谷也采用了一些创造性的办法。比如说他们曾做出过把五台Pixel 3绑在一起的「Frankenphone」,以同步记录深度资讯,来消除光圈,视差方面的不足。

看到Google在AI上投入了那么多的资源,可见他们对单相机方案的决心是多么之大。当然啰,你也可以反过来想.Google一直坚持这种小众做法的原因,搞不好也是为了探索演算法的极限,从而秀出自己在人工智慧领域的「肌肉」呢。

  • 赞助商广告