资料来源:内容来自数字时代,谢谢。
近日,谷歌华为以12亿美元收购HTC手机部门,引发广泛讨论。
「为软件创建专属硬件」这种思维从笔电时代开始就逐渐显现出来。在智能手机时代,它已经成为苹果不断创新和扩大竞争对手距离的关键。到了AR/MR/AI Apple时代将大大放大 领先优势。或许,这也是Microsoft和谷歌相继购买手机硬件公司的根本原因。
苹果思维:为软件打造专属硬件
长期以来,苹果与整个信息产业最大的区别在于,苹果一直是「基于软件和应用的观点,寻找技术和开发专属硬件」这个策略。
而其他公司,几乎都遵循「首先创建通用硬件,然后寻求硬件软件应用」这种思维。这种基本的思维差异基本上反映了当年影响Apple最大的计算机科学家凯伊(Alan Kay)的名言:People who are really serious about software should make their own hardware.
「为软件创建专属硬件」在个人电脑桌机时代,这种思维并没有给苹果带来任何优势,而是让苹果陷入了破产的边缘。然而,同样的想法自笔电时代以来就逐渐显示出它的意义。在智能手机时代,苹果不断创新和扩大竞争对手距离已成为关键。
到了AR/MR/AI 在这个时代,苹果的领先优势将大大扩大。也许,这也是Microsoft和谷歌购买手机硬件公司的根本原因。
Apple硬件护城河
40年来,人与电脑之间的互动模式,从早期的一维屏幕Commandd line搭配键盘,二维窗口和图像介面搭配滑鼠,触摸屏搭配各种多点触摸手势。在这段历史上,虽然这些技术几乎都来自苹果,但苹果无疑是该行业推动计算机人机介面演变的最重要的驱动力。
可想而知,人类生活在三度空间的世界里,人的动作、周围的环境和物体都是三维的。因此,对于人类来说,最自然的人机交互方式,当然也是三维的。如何将虚拟数字图像或信息对象与现实世界中的事物自然融合在三度空间中,并以三度空间的身体动作或手势操作这些数字对象,这就是所谓的Argumented 即使是Mixed Reality。
未来十年,AR/MR将成为手机、手表、电视盒、智能汽车等智能设备的主要操作介质,与我们的日常生活无缝衔接。
实现这一愿景所需的关键技术包括:计算机3D绘图和图像处理、人工智能和3D感知。事实上,它们已经发展和酝酿了一段时间。iPhone X进一步缩小了这些技术,并将其集成到手机处理器、单芯片模块和操作系统中。最重要的拼图之一是移动3D感知
移动3D感知
所谓3D感知,就是想办法将二维摄影,加入三维信息。以智能手机的镜头为例。在过去的十年里,虽然感光元件的画素是2M的,但 增加到12 M,其核心技术仍然是在二度空间上记录三度空间物体的投影。因此,科学家和工程师一直在追求如何捕捉摄影过程中丢失的维度(包括距离和体积)。关于这个问题,目前有三种主流的做法。
1. Stereoostereooostereo Image
这种方法是模拟人的眼睛,利用眼睛(双镜头)在两个位置同时获得两个类似的图像,并通过图像的重叠比较来计算两张照片之间的视角差异。因为镜头之间的距离是固定的,有了视角差,可以用简单的三角函数来计算「距离」,也就是图像「深度」资讯。我们熟悉的三维电影,在拍摄阶段,也是用类似的原理来完成的。
在消费电子产品领域,比如三星的手机,以及配备Intel的Reall Sense模块的摄像头使用这种方法来增加二维图像中的深度信息。这种方法最大的优点是,它适用于大多数自然光充足的场合,没有太多的距离限制。
2. 计算Time飞行时间 Of Flight
这种方法是使用不可见光的低功率雷射,在雷射光中使用时序代码,发射到物体,反射回来接收。通过芯片识别这个代码,可以计算光从发射到返回的时间差(即光旅行的时间表) of Flight ),将此时间乘以光速除以二,就可以知道物体的精确距离。
在市场上,包括Kinetic V2,Google Tango,以及iPhone7。这种方法最大的优点是它得到的距离是准确的距离,而不是估计的。由于半导体技术的进步,该组件可以单芯片化并使用real 通过提示来感知镜头前物体距离的变化。
3. 结构光Structured Light
这是当年第一代xboxKinetic使用的方式。开发该技术的以色列PrimeSense于2013年被苹果收购,今天也推出了iPhone X 采用结构光技术的局。
在了解结构光的工作原理之前,首先要知道什么是光斑Light code 。以下试着用最生活化的例子来解释:晚上关掉灯,用高聚光手电筒照在木板上。如果木板完全垂直于手电筒,木板上的光影将是一个正圆。木板和手电筒之间的距离会改变圆的大小。如果木板有一定的倾斜角度,正圆就会变成椭圆。
倾斜角度不同,椭圆形状也会不同。如果木板不移动,手电筒随意移动与木板之间的角度和距离,光影就会变成不同尺寸和椭圆。另一方面,我们可以用这些不同尺寸的椭圆来推动手电筒和木板之间的角度和距离。这是光斑最原始的想法。
而所谓的结构光,就是要想办法在感知空间中有计划、有规则地散布红外雷光。如果物体存在于感知空间中,那么这些光就会在物体上形成各种不可见的光斑。然后用红外相机拍摄这些斑点,然后使用这些斑点的形状变异,我们可以计算出空间中物体的距离、大小甚至形状。结构光的优点是只需两张照片即可完成计算,因此成像速度比ToF快 快。如果与专用处理器核心相匹配,甚至可以轻松实现即时(real time)的成像。
事实上,以上三种技术在笔记本电脑或桌机环境中并不少见。但如果要整合,就会成为AR/MR 在一部分,最大的关键挑战是「体积尺寸」与「功率耗能」。例如,无论是ToF还是Structured Light,它们的主要限制来自雷光的功率,这将限制适用的距离检测范围。
对于手机等级的电力,雷光功率只能低到50厘米以内的距离检测,而对于xbox这样的电子游戏,雷光功率可以大到几公尺。
以iPhone为例,苹果在iPhone 7后,为后镜头增加了双镜头和三维图像的能力,并在前镜头中增加了光子飞行时间距离感知模块。至于最新的iPhone, X,前镜头同时采用ToF和Structured Light技术。
未来的应用方向
更重要的是,苹果不仅仅是硬件,它通过FaceID, Portrait Lighting, Animoji的三个初步应用程序验证了这些硬件技术的集成应用程序。这三个应用程序实际上代表了未来十年人机介面演变的三个方向。
Face ID代表完全HandHandHand Free,更安全的身份认证技术即将成熟。过去,虽然图像识别算法趋于成熟,但仅限于二维图像数据提供的信息有限,以面部图像作为识别身体的主要方法仍然非常困难。但加入三维信息和深度学习技术后,可以轻松处理,包括「发型、化妆、眼镜、面具、照片」对于其他类型的问题,面部识别的应用是完全不同的境界。
Animoji展示了如何在近距离内以即时速度准确识别人脸或肢体的微小动作。例如,进一步结合人工智能 动作识别,它将是下一代AR 人机交互的主流形式。
Portrait Lighting揭示了摄影与图像处理软件的新世界。将3D添加到照片中 人工修改照片(俗称P图)的信息,将有更广阔的空间。此外,过去非常成熟的3D图像处理技术不仅可以用来渲染(render)未来,人造的3D物体或模型也可以用来渲染现实世界中的物体和图像。说白了,不难区分电脑3D绘图产生的图像和真实照片的区别,但未来边界会更加模糊,这正是混合现实情况(Mixed Reality)的基础。
仔细观察以上三种应用程序,都需要依靠高速图像处理、3D感知与成像、人工智能操作和高度集成的软硬件。因此,苹果为这些应用程序创建了独家传感器SOC、独家光学元件、独家GPU,甚至独家人工智能引擎的CPU。由于软硬件结合的优势,凯基证券分析师郭明皮认为,苹果在3D感知领域至少领先行业一年半至两年。
换句话说,苹果显然计划使用世界上最大的硬件平台iPhone,有计划地验证和实验各种3D 感知技术可以应用于行动装置,并推荐独家硬件的门槛。其最终目的是利用其软硬件集成的优势,为未来的智能设备创造下一代的人机介质。
iPhone X的真正意义
就像十年前第一代iPhone揭示mobile一样 internet和触控时代的全面到来,今天的iPhone X也恰当地揭示了未来十年,个人运算环境将走向人工智能和Mixed Reality时代的可能面貌,以及软硬件技术的发展方向。
今日是《半导体行业观察》为您分享的第1406期内容,欢迎关注。
R
eading
本文的内容和图片均来自网络收集,如有侵权联系删除。
发表评论 取消回复