挖掘数百篇AR/VR专利,苹果XR全方位探索( 三 )


◎编号:专利中描述了一种基于注视点追踪的机械变焦AR/VR方案 , 可跟随用户注视点变化而切换画面焦距 。而为了弥补变焦系统的延迟 , 该专利重点描述了一种注视点预测技术 , 可提前预测人眼运动轨迹(眼球扫视的落点) , 并对图像进行预渲染 , 好处是可以让焦点切换更加丝滑 。
在2018年时 , 苹果曾为注视点渲染方案申请专利 , 生成可实现8K分辨率(中心视觉区域) 。而在2019年 , 也有亮相苹果专利提到注视点渲染方案(编号分别为、) , 特点是采用两块屏幕(高清主屏+低清副屏) , 分辨率预计也可达到8K , 屏幕ppi在1000到2000之间 。
◎编号:指出了一种通过识别主导眼 , 来提高和优化眼球追踪准确性和稳定性的方案 。主导眼又称主视眼 , 在眼球追踪中重点分析主导眼数据 , 可以更好地对齐眼球的光轴和视轴 , 带来更好、更快的校准效果 。
识别主导眼的另一个好处 , 是能帮用户诊断与聚散度相关的眼病 , 如斜视或者弱视 , 并在此基础上优化注视点渲染技术 。而为了进一步优化眼球追踪对广泛人群的适配度 , 苹果在编号的专利中提到 , 眼球追踪系统可提取不同用户的眼部特征作为控制参数 , 并在此基础上动态校准注视点 。
◎编号:苹果提出了一种基于眼球追踪的AR/VR应用开启方式 , 特点是结合了语音玩法 , 用户只需要盯着目标应用标志 , 说出“开启”便可打开该应用 , 操控足够自然、快捷 。而在2021年公布的另一项专利中 , 苹果则还提出了用注视点快速切换文本输入框的方案 , 可以让你在VR中更快的填表、录入个人信息 。
在苹果看来 , 眼球追踪还可以动态优化第一人称视频录制 , 比如用注视点驱动相机拍摄的位置 , 将用户注意的位置放在视频中心 , 并根据注视点变化快速运镜(使用平滑算法来防抖) 。这将很适合未来全天候的AR眼镜 。
◎编号:为了节省眼球追踪硬件的功耗 , 苹果在专利中设计了一种基于事件相机的方案 , 特点是仅在识别到眼动时开启 , 而不是持续开启扫描 。该专利的另一个特点 , 则是能根据使用者的生物信息来调节光线强度 , 当用户眨眼次数超常 , 或是识别到儿童用户时 , 系统算法会降低照明光源的亮度 , 从而提升视觉舒适性 。
而另一个省电的方案 , 则是结合低分辨率和高分辨率两种模式的眼球追踪 , 分别识别眼球相对运动和准确位置 , 并结合头部传感器来定位注视点 。
◎编号:为了提高眼球追踪准确性 , 减少漂移是一个关键 。在该专利中 , 苹果介绍了一种特殊透镜系统 , 宣称可减少眼球追踪的漂移现象 。该方案基于光线追踪 , 可通过识别光线到达人眼并反射的数据 , 来对眼球建模等等 。
一些眼球追踪专利也来自苹果在2017年收购的SMI()公司 , 比如 , 提出了一种通过二次成像捕捉注视点的方案 , 特点是第一次成像捕捉到清晰的眼球 , 用于定位瞳孔位置 , 而第二次成像清晰度较低 , 用来识别眼球发亮 , 两次捕捉数据结合后 , 注视点预测数据可以更准确 。
三 , 生物传感器