近日,Meta发布了与Meta Quest 3 相关的官方支持页面,解释了新功能的具体内容,这些内容显示Meta将 Quest 头显的空间理解能力提升到了一个新水平。
Meta Quest 3 将于 9 月 27 日在 Meta Connect 2023 大会上揭晓详情。Twitter 用户 Luna 先发现了这个页面。
Meta Quest 3 针对MR技术进行了优化,与之前的 Quest 头显相比,它能更真实地融合物理环境和数字元素,这要归功于高质量的色彩透视和集成的深度传感器。
MR技术的基础是设备能够理解空间布局,并对其中的物体进行区分和分类。它通过收集空间数据来实现这一点。
什么是空间数据及其作用
在支持页面上,Meta 详细介绍了 Quest 头显(尤其是 Meta Quest 3)收集的空间数据。要使用这项功能,用户必须首先授予任何利用MR技术的应用程序访问空间数据的权限。否则,MR体验效果可能会降低,或者应用程序根本无法启动。
“空间数据是指收集到的有关物理空间中墙壁、表面和物体的大小、形状和位置的信息,”Meta 在页面上写道,“融合虚拟和现实世界环境的应用程序使用空间数据来了解你周围的空间以及你在该空间中的位置。”
根据 Meta 的说法,该头显通过以下方式创建环境的数字模型:
- 识别物体和表面
- 标记物体(例如:桌子、沙发、窗户)
- 估计这些物体的大小、形状以及它们之间的距离
空间数据的收集使不同的应用成为可能,数字对象可以:
- 附着或放置在物理对象上
- 反弹或以其他方式与物理对象互动
- 更逼真地在空间内移动并越过物理对象
Meta Quest 3 支持新型空间数据
空间数据包括三种类型的空间信息:场景数据、网格数据和深度数据。
Meta 解释说,场景数据是房间的简化模型,能让用户更直观地了解周围环境。
网格数据包括物理对象的形状和结构信息,可以实现数字对象和物理对象之间的逼真交互。
最后,深度数据包含物体之间的距离信息,可以逼真地呈现房间中的虚拟物体,包括遮挡物。只有 Meta Quest 3 支持所有三种类型的空间数据。
图源:Meta
这是由于 Meta Quest 3 的深度传感器初次集成到 Quest 头显中。下图展示了这一过程及其实现的互动类型。
图源:Meta
来源:mixed-news