1. 簡介

基於相機的飛時測距感測器透過量測主動發射光的往返時間,提供了一種快速且便利的獲取三維環境資訊的方法。本文提出了一套全面的模擬程序,用於評估感測器效能、理解實驗誤差,並深入分析光學效應。此模擬對於識別感測器限制、提升量測穩健性,以及在充滿雜訊與光學複雜性的實際應用中增強圖樣識別能力至關重要。

2. 飛時測距原理

飛時測距感測器透過量測光從光源到物體再返回偵測器的時間,來計算每個像素的距離。

2.1 直接飛時測距 (D-ToF)

D-ToF 直接量測短光脈衝的往返時間。對於高達 50 公尺的距離,這需要極短的脈衝與曝光時間(例如,1.5 公尺對應 10 奈秒),運作於 GHz 頻段。如相關文獻所述(Jarabo 等人,2017),這通常導致較低的訊噪比。

2.2 基於相關性的飛時測距 (C-ToF)

此間接方法亦稱為基於相位的飛時測距,它調變光源並對接收到的訊號進行相關運算。大多數現代飛時測距相機使用振幅調變連續波或連續波強度調變原理。發射與接收訊號之間的相位偏移會被量測,通常使用每個像素的光子混合裝置配合鎖相解調技術(Schwarte 等人,1997;Lange,2000)。圖 1 說明了系統元件。

圖 1: 使用 AMCW 的基於相機飛時測距感測器之量測原理(改編自 Druml 等人,2015)。圖中顯示了 3D 影像感測器、調變光源(LED/VCSEL)、鏡頭、像素矩陣、A/D 轉換器、序列控制器、主控制器,以及最終的深度圖計算。

3. 提出的模擬程序

核心貢獻在於提出了一套能夠深入分析光學效應的模擬程序。

3.1 基於光線追蹤的方法

模擬在幾何光學模型內採用光線追蹤基礎。這允許追蹤從光源發出的個別光線穿過場景,考慮與多個物體及相機鏡頭的交互作用,最終到達偵測器。

3.2 以光程長度為主要參數

深度計算基於光程長度,其定義為幾何路徑長度與介質折射率的乘積:$OPL = \int n(s) \, ds$。這是深度的主要參數,能夠模擬各種飛時測距感測器類型(D-ToF、C-ToF),並支援瞬態成像評估。

3.3 在 Zemax 與 Python 中的實作

此程序使用 Zemax OpticStudio 進行高保真度的光學光線追蹤與鏡頭建模,並結合 Python 進行場景生成、資料處理、分析,以及實作感測器模型(例如,解調、雜訊)。

4. 支援的光學效應

此框架旨在處理挑戰飛時測距感測器的複雜真實世界光學現象。

4.1 多物體反射與散射

模擬多路徑干擾,即光線在到達感測器前經由多個表面反射,這是深度誤差的主要來源。光線追蹤器會追蹤這些複雜的路徑。

4.2 半透明物體

模擬光在半透明材料(例如玻璃、塑膠)中的傳輸,其中會發生次表面散射與內部反射,影響量測到的相位與振幅。

4.3 鏡頭像差與畸變

納入鏡頭效應,如球面像差、色差與畸變。這些像差會改變光程與波前,影響每個像素的相位/深度量測準確度。

5. 實驗展示與結果

本文在一個簡單的 3D 測試場景上展示了主要功能。雖然提供的摘要未詳細說明具體的量化結果,但展示很可能凸顯了模擬的以下能力:

  • 生成真實深度圖並與模擬的感測器輸出進行比較。
  • 視覺化導致深度誤差的多路徑光線軌跡。
  • 分析鏡頭畸變對視場內深度量測均勻性的影響。
  • 展示從不透明物體與半透明物體接收到的訊號差異。

模擬輸出將包括輻照度圖、相位圖和最終深度圖,以及將模擬結果與真實值進行比較的誤差指標。

6. 技術分析與數學框架

模擬的保真度取決於精確的物理建模。關鍵方程式包括:

光程長度: $OPL = \sum_{i} n_i \cdot d_i$,其中 $n_i$ 為折射率,$d_i$ 為第 $i$ 段的幾何距離。

C-ToF 的相位偏移: 量測到的相位偏移 $\phi$ 與 OPL 及調變頻率 $f_{mod}$ 相關:$\phi = 2 \pi \cdot 2 \cdot \frac{OPL}{c} \cdot f_{mod} = 4 \pi f_{mod} \frac{OPL}{c}$,其中 $c$ 為光速。係數 2 代表往返行程。深度 $z$ 則為:$z = \frac{c \cdot \phi}{4 \pi f_{mod}}$。

訊號模型: 多接點 PMD 像素上的相關訊號 $S$ 可建模為:$S_k = \alpha \int_{0}^{T} I_{emit}(t) \cdot I_{demod,k}(t - \tau) \, dt + \eta$,其中 $\alpha$ 為反照率/反射率,$I_{emit}$ 為發射強度,$I_{demod,k}$ 為第 $k$ 個接點的解調函數,$\tau$ 為與 OPL 成正比的時間延遲,$T$ 為積分時間,$\eta$ 為雜訊。

7. 分析框架:核心見解與評論

核心見解

這項工作不僅僅是另一個模擬工具;它是在理想化光學設計與飛時測距感測混亂現實之間的策略橋樑。透過推崇光程長度作為統一的關鍵參數,作者超越了簡單的幾何距離。這是一個深刻的轉變。它直接針對商用飛時測距的阿基里斯腱:來自多路徑干擾與材料特性的系統性誤差,這些都是與 OPL 相關的現象。他們的方法將光傳輸視為首要考量,使得解構深度圖為何在角落、玻璃附近或環境光下失效成為可能——這種分析層次在大多數供應商資料表中嚴重缺失。

邏輯流程

邏輯優雅且具工業實用性:定義真實值(透過光線追蹤的 OPL)→ 模擬感測器的不完美量測(加入調變/解調、雜訊)→ 分析差異。 此流程反映了感測器特性描述的最佳實踐,但將其主動應用於模擬中。使用 Zemax 處理光學部分,Python 處理感測器邏輯,創造了一個靈活、模組化的流程。然而,邏輯鏈中存在一個薄弱環節:本文強烈暗示但未嚴格詳述從模擬的完美 OPL 圖到最終帶有雜訊、解調後的像素值之間的轉換過程。從物理光學到感測器電子學的跳躍是大多數誤差產生的關鍵介面,其建模深度仍不明確。

優點與缺點

優點: 此方法的全面性是其殺手級特徵。在單一框架內模擬 MPI、半透明性以及鏡頭像差是罕見的。這種整體觀點至關重要,因為這些效應會非線性地相互作用。使用業界標準的 Zemax 進行實務實作,為研發團隊提供了即時的可信度與可轉移性。相較於專注於視覺保真度的純學術渲染器(如 Mitsuba 或 Blender Cycles),此流程專為計量學而打造。

缺點與盲點: 顯而易見的問題是計算成本。針對複雜、漫射多路徑場景進行完整的幾何光線追蹤是出了名的昂貴。本文未提及加速技術(例如雙向路徑追蹤、光子映射)或可達成的效能,這限制了其在迭代設計中的感知效用。其次,它似乎忽略了波動光學。像相干性、薄膜中的干涉或繞射等效應——對於微型化感測器和 VCSEL 陣列越來越重要——超出了幾何光學模型的範疇。隨著該領域朝著具有皮秒計時能力的基於 SPAD 的 dToF 發展,這成為一個重大限制。最後,對真實世界感測器資料的驗證僅被暗示;若沒有針對實體相機的量化誤差基準,模擬的預測能力仍只是一種主張。

可行動的見解

對於飛時測距系統整合者與設計者,本文提供了一個藍圖。行動 1: 採用以 OPL 為中心的分析思維。在除錯深度誤差時,首先繪製場景中疑似的光程變化圖。行動 2:可製造性設計階段使用此模擬框架。不要只模擬理想鏡頭;要模擬帶有公差範圍的鏡頭,然後分析深度誤差預算。行動 3: 進一步推進此框架。將其與電子設計自動化工具整合,以共同模擬光學與電子雜訊源。飛時測距的未來在於這種共同設計。研究社群應在此基礎上,開源此類流程,類似於史丹佛大學的 Open3D 或麻省理工學院的 瞬態成像 工作如何使光傳輸分析普及化。最終目標是為飛時測距感測器建立一個「數位分身」——本文是朝著這個方向邁出的基礎一步,但驗證、加速與整合的重任仍然存在。

8. 未來應用與研究方向

提出的模擬框架為未來工作與應用開闢了多條途徑:

  • 感測器融合與演算法開發: 生成大量物理精確的資料集,用於訓練機器學習演算法以校正 MPI、識別材料,或將飛時測距資料與 RGB 融合。
  • 汽車與機器人: 模擬具挑戰性的場景,如在雨/霧中駕駛(散射),或在不同陽光下的感測器效能(環境光抑制)。
  • 醫療與生物辨識: 模擬光與生物組織的交互作用,應用於非接觸式監測或 3D 臉部辨識。
  • 擴增實境與虛擬實境: 為下一代 VR/AR 頭戴式裝置設計和測試飛時測距感測器,模擬在不同光照條件下及面對反射表面時的手部追蹤準確度。
  • 研究方向 - 混合模擬: 未來的框架可以將幾何光線追蹤與波動光學模擬結合,以處理近場效應與相干性。
  • 研究方向 - 標準化基準: 社群可以利用此方法來定義用於評估飛時測距感測器效能的標準化測試場景與指標。

9. 參考文獻

  1. Baumgart, M., Druml, N., & Consani, C. (2018). Procedure Enabling Simulation and In-Depth Analysis of Optical Effects in Camera-Based Time-of-Flight Sensors. The International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences, XLII-2, 83-90.
  2. Druml, N. et al. (2015). REAL3™ 3D Image Sensor. Infineon Technologies.
  3. Jarabo, A., et al. (2017). A Framework for Transient Rendering. ACM Transactions on Graphics (TOG).
  4. Lange, R. (2000). 3D Time-of-Flight Distance Measurement with Custom Solid-State Image Sensors in CMOS/CCD-Technology. PhD Thesis, University of Siegen.
  5. Remondino, F., & Stoppa, D. (Eds.). (2013). TOF Range-Imaging Cameras. Springer.
  6. Schwarte, R., et al. (1997). A New Electrooptical Mixing and Correlating Sensor: Facilities and Applications of the Photonic Mixer Device (PMD). Proc. SPIE.
  7. Kirmani, A., et al. (2014). Looking around the corner with transient imaging. Nature Communications. (External reference for transient imaging).
  8. Zhu, J.Y., et al. (2017). Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks. IEEE ICCV. (External reference for generative models relevant to sensor data simulation).