Meta Quest 3 将 Quest 头显的空间理解提升到一个新的水平。
Meta Quest 3 将于 9 月 27 日在 Meta Connect 2023 大会上揭晓详情。Twitter 用户 Luna 先发现了这个页面。
Meta Quest 3 针对混合现实功能进行了优化,并且由于高质量彩色透视和集成深度传感器,将能够比以前的 Quest 头显更支持融合物理环境和数字元素。
混合现实的基础是设备理解空间布局以及分类和区分其中对象的能力,Quest 3 通过收集空间数据来实现此目的。
空间数据及其用途
在支持页面上,Meta 详细介绍了 Quest 头戴设备(尤其是 Meta Quest 3)收集的空间数据。若要使用此功能,必须首先向利用混合现实的应用程序授予对空间数据的访问权限。如果不这样做,混合现实体验可能会降级,或者应用程序可能根本无法启动。
Meta 表示:“空间数据是指收集的有关物理空间中墙壁、表面和物体的大小、形状和位置的信息。融合虚拟和现实世界环境的应用程序使用空间数据来了解用户周围的空间以及用户在该空间中的位置。”
根据 Meta 的说法,Quest 3 通过以下方式创建用户环境的数字模型:
识别对象和表面 标记对象(例如:桌子、沙发、窗户) 估计这些物体相对于彼此和头显的大小、形状和距离。
空间数据的集合支持不同的应用程序,数字对象可以是:
附着或放置在物理对象上, 反弹或以其他方式与物理对象交互 在空间内更逼真地移动并经过物理对象。
Meta Quest 3支持新型空间数据
空间数据包括三种类型的空间信息:场景数据、网格数据和深度数据。
Meta 解释说,场景数据是一个简化的房间模型,可以对用户周围环境有更多的物理感知。
网格数据包括有关物理对象的形状和结构的信息,并允许数字对象和物理对象之间的真实交互。
最后,深度数据包含有关对象之间距离的信息,并允许对房间中的虚拟对象进行逼真的渲染,包括遮挡,且只有 Quest 3 支持所有三种类型的空间数据。这得益于 Quest 3 的深度传感器,而该传感器是首次集成到 Quest 头显。