在 WWDC 2023 期间,Apple 将之前提供的“Object Capture”API 资源带到了 iOS 和 iPadOS 平台,使用 iPhone 和 iPad 中集成的 LiDAR 系统可以在几分钟内对物体进行三维建模,从不同的角度拍摄物体观点。
许多公司之前已经推出了类似的技术,包括将 2D 图像转换为 3D 模型的机器学习技术,或者从多张照片构建 3D 模型数据。

Apple 之前发布的“ Object Capture”' 建模工具从不同角度拍摄的多个平面图像组成 3D 模型内容,只能在 macOS 操作环境中运行。为iPhone和 iPad提供的新工具资源现在允许用户使用手持设备方便地建模。
但由于需要通过激光雷达捕捉精准的距离信息,目前仅限搭载激光雷达的 iPhone Pro 机型和 iPad Pro 系列机型。
摄影后制作的3D模型将以通用的USDZ文件格式呈现,可以使用支持该文件格式的专业3D软件进行调整。
提供这一工具资源,无疑是为了让开发者能够更快速地创建各种3D模型,或者建立让用户生成自己的3D模型内容的服务,从而推动Vision Pro虚拟现实耳机的应用体验。
当然,此前提供的ARKit、RealityKit,以及最近宣布的Reality Composer Pro与Unity的深度合作,也是为了拓展Vision Pro应用的准备。
相关文章
网友评论(共有 0 条评论)