2.1 直接飛行時間 (D-ToF)
D-ToF 直接測量短光脈衝嘅往返時間。對於高達50米嘅距離,呢個需要極短嘅脈衝同曝光時間(例如,1.5米需要10納秒),工作喺GHz範圍。正如相關文獻(Jarabo等人,2017年)指出,呢個通常會導致低信噪比。
基於相機嘅飛行時間傳感器,通過測量主動發射光嘅往返時間,提供咗一種快速便捷嘅方法嚟獲取3D環境資訊。本文提出一個全面嘅模擬程序,用於評估傳感器性能、理解實驗偽影,以及深入分析光學效應。喺現實應用中,噪音同光學複雜性普遍存在,呢個模擬對於識別傳感器限制、提高測量穩健性,以及增強模式識別能力至關重要。
飛行時間傳感器通過測量光從光源到物體再返到探測器所需嘅時間,計算每個像素嘅距離。
D-ToF 直接測量短光脈衝嘅往返時間。對於高達50米嘅距離,呢個需要極短嘅脈衝同曝光時間(例如,1.5米需要10納秒),工作喺GHz範圍。正如相關文獻(Jarabo等人,2017年)指出,呢個通常會導致低信噪比。
亦被稱為基於相位嘅飛行時間,呢種間接方法調製光源並對接收信號進行相關運算。大多數現代飛行時間相機使用振幅調製連續波或連續波強度調製原理。測量發射同接收信號之間嘅相位差,通常每個像素使用光子混合器件配合鎖相解調技術。圖1展示咗系統組成部分。
圖1: 使用AMCW嘅基於相機飛行時間傳感器測量原理(改編自Druml等人,2015年)。圖中展示咗3D圖像傳感器、調製光源、鏡頭、像素矩陣、A/D轉換器、序列控制器、主控制器,以及最終嘅深度圖計算。
核心貢獻係一個能夠深入分析光學效應嘅模擬程序。
模擬喺幾何光學模型內使用光線追蹤基礎。呢個允許追蹤從光源發出、穿過場景、考慮與多個物體同相機鏡頭嘅相互作用,最後到達探測器嘅單個光線。
深度計算基於光程,定義為幾何路徑長度同介質折射率嘅乘積:$OPL = \int n(s) \, ds$。呢個係深度嘅主導參數,能夠模擬各種飛行時間傳感器類型,並支援瞬態成像評估。
程序使用 Zemax OpticStudio 進行高保真光學光線追蹤同鏡頭建模,並結合 Python 進行場景生成、數據處理、分析,以及實現傳感器模型(例如,解調、噪音)。
呢個框架旨在考慮挑戰飛行時間傳感器嘅複雜現實世界光學現象。
模擬多路徑干擾,即光喺到達傳感器之前從多個表面反射,呢個係深度誤差嘅主要來源。光線追蹤器會追蹤呢啲複雜路徑。
模擬光喺半透明材料(例如玻璃、塑膠)中嘅傳輸,呢啲材料會發生次表面散射同內部反射,影響測量到嘅相位同振幅。
包含鏡頭效應,例如球面像差、色差同畸變。呢啲像差會改變光程同波前,影響每個像素嘅相位/深度測量準確性。
本文喺一個簡單嘅3D測試場景上展示主要功能。雖然提供嘅摘要中冇詳細說明具體定量結果,但演示可能展示咗模擬嘅能力:
模擬輸出將包括輻照度圖、相位圖同最終深度圖,以及將模擬結果與真實數據進行比較嘅誤差指標。
模擬嘅保真度取決於準確嘅物理建模。關鍵方程式包括:
光程: $OPL = \sum_{i} n_i \cdot d_i$,其中 $n_i$ 係折射率,$d_i$ 係分段 $i$ 中嘅幾何距離。
C-ToF 嘅相位差: 測量到嘅相位差 $\phi$ 與光程同調製頻率 $f_{mod}$ 相關:$\phi = 2 \pi \cdot 2 \cdot \frac{OPL}{c} \cdot f_{mod} = 4 \pi f_{mod} \frac{OPL}{c}$,其中 $c$ 係光速。因子2考慮咗往返行程。深度 $z$ 為:$z = \frac{c \cdot \phi}{4 \pi f_{mod}}$。
信號模型: 對於多抽頭光子混合器件,像素上嘅相關信號 $S$ 可以建模為:$S_k = \alpha \int_{0}^{T} I_{emit}(t) \cdot I_{demod,k}(t - \tau) \, dt + \eta$,其中 $\alpha$ 係反照率/反射率,$I_{emit}$ 係發射強度,$I_{demod,k}$ 係抽頭 $k$ 嘅解調函數,$\tau$ 係與光程成正比嘅時間延遲,$T$ 係積分時間,$\eta$ 係噪音。
呢項工作唔只係另一個模擬工具;佢係理想化光學設計同飛行時間感測混亂現實之間嘅戰略橋樑。通過推崇光程作為統一嘅主導參數,作者超越咗簡單嘅幾何距離。呢個係一個深刻嘅轉變。佢直接針對商業飛行時間嘅致命弱點:來自多路徑干擾同材料特性嘅系統性誤差,呢啲都係依賴於光程嘅現象。佢哋嘅方法將光傳輸視為首要考慮因素,使得解構點解深度圖喺角落、玻璃附近或環境光下會失效成為可能——呢種分析深度喺大多數供應商數據表中都嚴重缺乏。
邏輯非常優雅且具工業性:定義真實情況(通過光線追蹤獲得光程)→ 模擬傳感器嘅不完美測量(加入調製/解調、噪音)→ 分析差異。 呢個流程反映咗傳感器特性分析嘅最佳實踐,但係主動將其應用於模擬中。使用 Zemax 處理光學部分,Python 處理傳感器邏輯,創造咗一個靈活、模組化嘅流程。然而,邏輯鏈中有一個薄弱環節:論文強烈暗示但冇嚴格詳細說明從模擬嘅完美光程圖到最終嘅有噪音、解調後像素值嘅轉換過程。從物理光學到傳感器電子學嘅跳躍係關鍵介面,大多數誤差都喺呢度產生,而佢嘅建模深度仍然唔清晰。
優點: 方法嘅全面性係佢嘅殺手鐧。喺一個框架內模擬多路徑干擾、半透明性同鏡頭像差係好罕見嘅。呢種整體視圖至關重要,因為呢啲效應會非線性地相互作用。使用行業標準 Zemax 嘅實際實現為研發團隊提供咗即時嘅可信度同可轉移性。相比於純學術渲染器(如 Mitsuba 或 Blender Cycles,佢哋注重視覺保真度),呢個流程係專為計量學而構建嘅。
缺點與盲點: 房間裡嘅大象係計算成本。對於複雜、漫射嘅多路徑場景進行完整幾何光線追蹤係出名地昂貴。論文對加速技術(例如雙向路徑追蹤、光子映射)或可實現嘅性能隻字不提,呢點限制咗佢喺迭代設計中嘅感知效用。其次,佢似乎忽略咗波動光學。相干性、薄膜中嘅干擾或衍射等效應——對於微型化傳感器同VCSEL陣列越來越重要——都喺幾何光學模型之外。隨著領域向基於SPAD嘅直接飛行時間同皮秒計時發展,呢個成為一個重大限制。最後,對真實世界傳感器數據嘅驗證只係被暗示;如果冇針對物理相機嘅定量誤差基準,模擬嘅預測能力仍然只係一個斷言。
對於飛行時間系統集成商同設計師,呢篇論文提供咗一個藍圖。建議1: 採用以光程為中心嘅分析思維。喺調試深度誤差時,首先映射你場景中懷疑嘅光程變化。建議2: 喺面向製造嘅設計階段使用呢個模擬框架。唔好只係模擬理想鏡頭;要模擬帶有公差嘅鏡頭,然後分析深度誤差預算。建議3: 將框架進一步推進。將其與電子設計自動化工具集成,以共同模擬光學同電子噪音源。飛行時間嘅未來在於呢種協同設計。研究界應該在此基礎上,開源呢類流程,類似於史丹佛大學嘅Open3D或麻省理工學院嘅瞬態成像工作如何普及光傳輸分析。最終目標係為飛行時間傳感器創建一個「數碼孿生」——呢篇論文係朝呢個方向嘅基礎一步,但驗證、加速同集成嘅繁重工作仍然有待完成。
提出嘅模擬框架為未來工作同應用開闢咗幾個途徑: