专访苹果高阶副总裁席勒:在iPhone 11背后改变一切的A13仿生芯片

 智能工业机器人     |      2019-09-20 18:00

当人们都将目光注视在iPhone 11的三镜头时,都忽略了成就iPhone 11一切的A13仿生芯片,他与上一代最大不同之处在于能够自体进行机器学习。

总有人会浅薄地认为,你只是加了一个镜头,世界上也有其他超广角镜头了,这有啥新鲜的?

菲利浦.席勒(Phil Schiller)拿起桌上的一部,打开相机,他指着屏幕两侧延伸出的取景画面对我说:

你看,它实际上是两颗镜头同时在运作。

眼前这位负责行销的苹果高阶副总裁,看起来比镜头前清瘦不少——在紧锣密鼓的苹果发布会上,席勒掌控着关于产品和技术层面的讲解时间。

但我们没有时间在Keynote上解释它具体是如何发生的,但它就在那里,从来没有人做过。

在大约40分钟的专访里,尽管我试图把对话引向更符合这位高阶主管身份的话题上,但这位具备技术背景的高阶副总裁,却始终滔滔不绝地向我吐露发布会上他没来及说的技术细节。

拍照是iPhone 11系列的核心卖点。正如此前评测,无论是三摄变焦的毫无顿挫,还是夜间模式的纯净度,iPhone的摄影都再一次回到行业领先的位置。

芯片改变摄影

席勒把iPhone 11摄影的突破归功于A13仿生芯片上。这块由苹果自研的第二代7纳米芯片,依然采用2+4的设计,即两个高性能核心和四个能效核心设计,其中CPU速度最高可提升20%,能耗最多可降低30%,而四个能效核心速度提升了20%,能耗却降低了40%。

席勒认为,机器学习是A13仿生芯片区别于A12设计的一个重点,CPU上新增了两个新的机器学习加速器,能以最高达6倍的速度执行矩阵数学运算,每秒可进行1兆次的运算。

在相同的尺寸里,A13仿生芯片比上一代多塞进了11亿个晶体管。那么,多出算力花在哪里?

答案是机器学习和图像处理的性能。

最好的例子莫过于Deep Fusion,这个被席勒称为「电脑摄影的疯狂哲学」的功能,可以在用户按下快门前拍摄8张照片,并融合一张按下快门时的长曝图片,生成一张媲美专业相机的高动态范围照片,即便在中低光环境下也能呈现更多细节。


  • 共2页:
  • 上一页
  • 1
  • 2
  • 下一页