挖掘数百篇AR/VR专利,苹果XR全方位探索( 六 )


此外 , 苹果在2019的另一项专利中指出() , 可为头显配备高分辨率和低分辨率两种透视摄像头 , 这种设计利用了VR的注视点渲染技术 , 通过降低用户余光部分的透视分辨率 , 来优化计算任务、降低硬件成本 。
专利还指出 , AR/VR头显通过两组RGB摄像头捕捉周围立体环境 , 宣称可模拟人眼视觉系统 。
六 , 空间音频
苹果针对空间音频也曾申请多项专利 , 比如一些基于HRTF(头部相关传输函数)、几何声学等技术的方案 , 或是通过实时声音射线追踪来模拟室内声场 。此外 , 还探索了根据头部定位信息来预测双声道音频的方案 , 特点是可根据用户头部运动来动态调整声音的模拟距离和方向 , 改善VR RPG游戏、恐怖电影等内容的体验感 。
而在中 , 则描述了一种根据头对躯干方向来定位用户朝向的方案 , 类似于的身体朝向模式 。
在2021年的一项专利中 , 苹果曾指出AR/VR头显可搭载多个麦克风阵列 , 支持定向音频检测 , 可计算出周围环境中某个声音的来源 , 并以视觉形式标注或提示 。这样的功能可以很好的补充人的听力 , 帮助用户识别超出正常感知范围的声音(类似的概念还可以用AR标记肉眼不可见的气体、电磁信号等) 。
而在2023年的一项专利()中 , 还指出可以使用空间滤波器 , 根据用户所处的环境 , 为双声道音频加入空间线索 , 让空间音频的实际体验更加身临其境 。
七 , 定位系统
◎超声波定位
目前 , 主流VR定位基于光学方案 , 比如红外、CV等等 。在编号的专利中 , 苹果提出了一种基于飞时测距原理的超声波定位方案 , 宣称可测量传感器与墙壁、目标、障碍物之间的相对测距 , 为周围环境生成3D地图 , 并定位手柄、头显 , 以及检测障碍物、识别表面 。
◎3D测距/扫描
苹果不止一次在专利中提到 , AR/VR头显可搭载多个3D传感器 , 包括:结构光传感器、双目3D图像传感器模组(由2个或以上摄像头组成)、LiDAR、3D无线电传感器、红外或CV相机等等 , 这些传感器可用来定位空间 , 也可以识别障碍物 。
八 , 其它传感器
◎ 多传感器阵列
在2021年 , USPTO曾曝光一项来自苹果的关键AR/VR专利() , 其中描述了一种分体式、搭载多摄像头和传感器的AR/VR头显 。为什么说它重要呢?首先专利发明者都是苹果的一些关键人物 , 比如联合发明者Avi Bar-Zeev , 以及在苹果工作了二十多年的Geoff Stahl 。据前不久彭博社爆料称 , Stahl目前在负责xrOS操作系统 , 是苹果AR/VR项目背后一个关键推手 。
除此之外 , 在编号的专利中 , 苹果还设想AR/VR头显可以搭载更多传感器 , 比如度摄像头、眼球追踪模组、激光雷达、指纹识别模组、手势识别模组、超声波传感器、光学距离传感器、视网膜扫描传感器、温度传感器、EMG、氧传感器、心率传感器、血流量传感器、电阻式传感器、应变仪、加速计、磁性传感器、电位器等 。
◎ 霍尔传感器(编号)
通常 , AR/VR头显采用距离传感器来感知佩戴状态 , 检测到用户佩戴头显后 , 便会开启系统 , 而检测到用户摘掉头显后 , 则进入待机状态 。相比于距离传感器 , 霍尔传感器更省电 , 苹果希望在头显中采用多个霍尔传感器和磁性机制 , 通过检测设备的旋转角度 , 来判断佩戴状态 。实际上 , 苹果蓝牙耳机也采用了霍尔传感器 。