2.1 直接飞行时间测量
直接飞行时间测量直接测量短光脉冲的往返时间。对于高达50米的距离,这需要极短的脉冲和曝光时间(例如,1.5米距离对应10纳秒),工作在吉赫兹范围。正如相关文献所指出的,这通常会导致较低的信噪比。
基于摄像头的飞行时间传感器通过测量主动发射光的往返时间,提供了一种快速便捷获取三维环境信息的方法。本文提出了一套全面的仿真流程,用于预估传感器性能、理解实验伪影并深入分析光学效应。在噪声和光学复杂性普遍存在的实际应用中,该仿真对于识别传感器局限性、提升测量鲁棒性以及增强模式识别能力至关重要。
飞行时间传感器通过测量光从光源到物体再返回探测器所需的时间,来计算每个像素的距离。
直接飞行时间测量直接测量短光脉冲的往返时间。对于高达50米的距离,这需要极短的脉冲和曝光时间(例如,1.5米距离对应10纳秒),工作在吉赫兹范围。正如相关文献所指出的,这通常会导致较低的信噪比。
该方法也称为基于相位的飞行时间测量,是一种间接方法,通过调制光源并对接收信号进行相关处理。大多数现代飞行时间相机采用振幅调制连续波或连续波强度调制原理。测量发射信号与接收信号之间的相位差,通常使用每个像素的光子混频器件配合锁相解调技术。图1展示了系统组件。
图1: 使用振幅调制连续波原理的基于摄像头的飞行时间传感器测量原理。图中展示了三维图像传感器、调制光源、镜头、像素矩阵、模数转换器、序列控制器、主控制器以及最终深度图的计算过程。
本工作的核心贡献在于提出了一套能够深入分析光学效应的仿真流程。
仿真在几何光学模型内采用光线追踪基础。这使得能够追踪从光源发出的单条光线穿过场景,在到达探测器之前,考虑其与多个物体及相机镜头的相互作用。
深度计算基于光程长度,其定义为几何路径长度与介质折射率的乘积:$OPL = \int n(s) \, ds$。这是深度的核心参数,能够模拟各种类型的飞行时间传感器,并支持瞬态成像评估。
该流程使用 Zemax OpticStudio 进行高保真光学光线追踪和镜头建模,并结合 Python 进行场景生成、数据处理、分析以及传感器模型(如解调、噪声)的实现。
该框架旨在处理挑战飞行时间传感器的复杂现实世界光学现象。
模拟多径干扰,即光线在到达传感器之前经过多个表面反射,这是深度误差的主要来源。光线追踪器会追踪这些复杂的路径。
模拟光在半透明材料中的传输,例如玻璃、塑料,其中会发生次表面散射和内部反射,影响测量的相位和振幅。
纳入镜头效应,如球差、色差和畸变。这些像差会改变光程和波前,从而影响每个像素的相位/深度测量精度。
本文在一个简单的三维测试场景上演示了主要功能。虽然提供的摘要未详述具体的定量结果,但演示很可能展示了仿真在以下方面的能力:
仿真输出将包括辐照度图、相位图和最终深度图,以及将模拟结果与真实值进行比较的误差指标。
仿真的保真度取决于精确的物理建模。关键方程包括:
光程长度: $OPL = \sum_{i} n_i \cdot d_i$,其中 $n_i$ 是折射率,$d_i$ 是第 $i$ 段的几何距离。
基于相关的飞行时间测量的相位差: 测量的相位差 $\phi$ 与光程长度和调制频率 $f_{mod}$ 相关:$\phi = 2 \pi \cdot 2 \cdot \frac{OPL}{c} \cdot f_{mod} = 4 \pi f_{mod} \frac{OPL}{c}$,其中 $c$ 是光速。因子 2 考虑了往返行程。深度 $z$ 则为:$z = \frac{c \cdot \phi}{4 \pi f_{mod}}$。
信号模型: 对于多抽头的光子混频器件,像素处的相关信号 $S$ 可建模为:$S_k = \alpha \int_{0}^{T} I_{emit}(t) \cdot I_{demod,k}(t - \tau) \, dt + \eta$,其中 $\alpha$ 是反照率/反射率,$I_{emit}$ 是发射强度,$I_{demod,k}$ 是第 $k$ 个抽头的解调函数,$\tau$ 是与光程长度成正比的时间延迟,$T$ 是积分时间,$\eta$ 是噪声。
这项工作不仅仅是另一个仿真工具;它是连接理想化光学设计与飞行时间传感复杂现实之间的战略桥梁。通过倡导将光程长度作为统一的核心参数,作者超越了简单的几何距离。这是一个深刻的转变。它直接针对商用飞行时间传感器的致命弱点:来自多径干扰和材料特性的系统性误差,这些都是依赖于光程长度的现象。他们的方法将光传输视为首要因素,从而能够解构深度图为何在角落、玻璃附近或环境光下失效——这是大多数供应商数据手册中严重缺失的分析层次。
其逻辑极具工业美感:定义真实值(通过光线追踪得到光程长度)→ 模拟传感器的不完美测量(添加调制/解调、噪声)→ 分析差异。 这个流程反映了传感器表征的最佳实践,但将其主动应用于仿真。使用 Zemax 处理光学部分,Python 处理传感器逻辑,创建了一个灵活、模块化的流程。然而,这个逻辑链存在一个薄弱环节:论文强烈暗示但未严格详述从模拟的、完美的光程长度图到最终的、带噪声的、解调后的像素值的转换过程。从物理光学到传感器电子学的跨越是关键接口,大多数误差在此产生,而其建模深度仍不明确。
优势: 该方法论的全面性是其杀手锏。在一个框架内同时模拟多径干扰、半透明性和镜头像差是罕见的。这种整体视角至关重要,因为这些效应会非线性地相互作用。使用行业标准的 Zemax 进行实际实现,为研发团队提供了即时可信度和可移植性。与专注于视觉保真度的纯学术渲染器相比,该流程专为计量学而构建。
不足与盲点: 一个显而易见的问题是计算成本。对复杂的、漫反射多径场景进行完整的几何光线追踪是众所周知的昂贵。论文未提及加速技术或可实现的性能,这限制了其在迭代设计中的感知效用。其次,它似乎忽略了波动光学。诸如相干性、薄膜干涉或衍射等效应——对于微型化传感器和垂直腔面发射激光器阵列越来越重要——超出了几何光学模型的范围。随着该领域向基于单光子雪崩二极管的直接飞行时间测量发展,这成为一个显著的限制。最后,与真实世界传感器数据的验证仅被暗示;没有针对物理相机的定量误差基准,仿真的预测能力仍停留在断言层面。
对于飞行时间系统集成商和设计者,本文提供了一个蓝图。行动1: 采用以光程长度为中心的分析思维。在调试深度误差时,首先映射场景中可疑的光程变化。行动2: 在面向制造的设计阶段使用此仿真框架。不要只模拟理想镜头;模拟带有公差的镜头,然后分析深度误差预算。行动3: 进一步推进该框架。将其与电子设计自动化工具集成,以协同模拟光学和电子噪声源。飞行时间的未来在于这种协同设计。研究界应在此基础上,开源此类流程,类似于斯坦福大学的Open3D或麻省理工学院的瞬态成像工作如何普及了光传输分析。最终目标是飞行时间传感器的“数字孪生”——本文是朝着这个方向迈出的基础性一步,但验证、加速和集成的繁重工作仍有待完成。
提出的仿真框架为未来的工作和应用开辟了多个方向: