來源:映維網 作者 黃顏
蘋果在6月的WWDC大會發布了ARKit 4,而你將能通過全新的Depth API訪問iPad Pro搭載的激光雷達掃描儀(LiDAR)的詳細深度信息。
激光雷達掃描儀(LiDAR)內置的高級場景理解功能允許Depth API利用關于周遭環境的每像素深度信息。當與場景幾何體生成的三維網格數據相結合時,通過啟用虛擬對象的即時放置并將與物理環境無縫混合,深度信息可以令虛擬對象遮擋更為逼真。這可以支持應用程序部署全新的功能,比如更精確的測量和將效果應用到用戶環境中。
蘋果日前發布了iOS14 Beta 6,而根據開發者的反饋,LiDAR所能實現的虛實遮擋已經達到了幾乎“無法區分真假”的地步。
Twitter用戶usdzshare日前上傳了一段關于iOS14 Beta 6的AR遮擋效果的視頻。我們可以看到,虛擬對象可以逼真地遮擋真實對象。反過來,真實對象同樣能夠逼真地遮擋虛擬對象。
iOS14 Beta 6的遮擋效果
iOS14 Beta 6的遮擋效果
iOS14 Beta 6的遮擋效果
另外,為了說明具體的效果提升,usdzshare同時上傳了iOS 13.6+iPhone的AR遮擋效果。經過對比,我們可以看到iOS14 Beta 6在光影,以及虛實遮擋接合位置的處理有了長足的提升,而這主要是得益于LiDAR。
iOS 13.6+iPhone的遮擋效果
值得一提的是,有消息稱下一代iPhoe 12 Pro有望搭載LiDAR,相信這將能大大提升AR應用的真實感和沉浸感。
原文鏈接:https://yivian.com/news/77432.html