1. Введение

Камерные датчики времени пролета (ToF) предоставляют быстрый и удобный метод получения трехмерной информации об окружающей среде путем измерения времени прохождения активно излучаемого света до объекта и обратно. В данной статье представлена комплексная процедура моделирования для оценки производительности датчика, понимания артефактов эксперимента и углубленного анализа оптических эффектов. Моделирование имеет решающее значение для выявления ограничений датчиков, повышения надежности измерений и улучшения возможностей распознавания образов в реальных приложениях, где распространены шумы и оптические сложности.

2. Принципы измерения времени пролета

Датчики ToF рассчитывают расстояние для каждого пикселя, измеряя время, за которое свет проходит от источника до объекта и обратно к детектору.

2.1 Прямое время пролета (D-ToF)

D-ToF напрямую измеряет время прохождения коротких световых импульсов туда и обратно. Для расстояний до 50 метров это требует чрезвычайно коротких импульсов и времени экспозиции (например, 10 нс для 1,5 м), работающих в диапазоне ГГц. Как отмечается в соответствующей литературе (Jarabo et al., 2017), это часто приводит к низкому отношению сигнал/шум (SNR).

2.2 Корреляционное время пролета (C-ToF)

Также известный как фазовый ToF (P-ToF), этот косвенный метод модулирует источник света и коррелирует принимаемый сигнал. Большинство современных ToF-камер используют принцип амплитудной модуляции непрерывной волны (AMCW) или модуляции интенсивности непрерывной волны (CWIM). Измеряется фазовый сдвиг между излучаемым и принимаемым сигналами, как правило, с использованием устройства смешения фотонов (PMD) на пиксель с демодуляцией Lock-In (Schwarte et al., 1997; Lange, 2000). Компоненты системы показаны на Рисунке 1.

Рисунок 1: Принцип измерения камерного датчика ToF с использованием AMCW (адаптировано из Druml et al., 2015). На схеме показаны: 3D-сенсор изображения, модулированный источник света (LED/VCSEL), объектив, матрица пикселей, АЦП, контроллер последовательности, хост-контроллер и расчет итоговой карты глубины.

3. Предлагаемая процедура моделирования

Основной вклад — это процедура моделирования, позволяющая проводить углубленный анализ оптических эффектов.

3.1 Подход на основе трассировки лучей

Моделирование использует основу трассировки лучей в рамках модели геометрической оптики. Это позволяет отслеживать отдельные световые лучи от источника(ов) через сцену, учитывая взаимодействия с несколькими объектами и объективом камеры до попадания на детектор.

3.2 Оптическая длина пути как основной параметр

Расчет глубины основан на оптической длине пути (OPL), определяемой как произведение геометрической длины пути и показателя преломления среды: $OPL = \int n(s) \, ds$. Это основной параметр для глубины, позволяющий моделировать различные типы датчиков ToF (D-ToF, C-ToF) и поддерживать оценку переходной визуализации.

3.3 Реализация в Zemax и Python

Процедура реализована с использованием Zemax OpticStudio для высокоточной оптической трассировки лучей и моделирования объективов, в сочетании с Python для генерации сцен, обработки данных, анализа и реализации моделей датчиков (например, демодуляции, шума).

4. Поддерживаемые оптические эффекты

Фреймворк разработан для учета сложных оптических явлений реального мира, которые создают проблемы для датчиков ToF.

4.1 Многократное отражение и рассеяние

Моделирует многолучевую интерференцию (MPI), когда свет отражается от нескольких поверхностей, прежде чем достичь сенсора, что является основным источником ошибок глубины. Трассировщик лучей отслеживает эти сложные пути.

4.2 Полупрозрачные объекты

Моделирует перенос света через полупрозрачные материалы (например, стекло, пластик), где происходит подповерхностное рассеяние и внутренние отражения, влияющие на измеряемую фазу и амплитуду.

4.3 Аберрации и дисторсия объектива

Включает эффекты объектива, такие как сферическая аберрация, хроматическая аберрация и дисторсия. Эти аберрации изменяют оптический путь и волновой фронт, влияя на точность измерений фазы/глубины для каждого пикселя.

5. Экспериментальная демонстрация и результаты

В статье демонстрируются основные возможности на простой 3D-тестовой сцене. Хотя конкретные количественные результаты в предоставленном отрывке не детализированы, демонстрация, вероятно, показывает способность моделирования:

  • Генерировать эталонные карты глубины и сравнивать их с выходными данными моделируемого датчика.
  • Визуализировать траектории лучей при многолучевом распространении, вызывающие ошибки глубины.
  • Анализировать влияние дисторсии объектива на равномерность измерения глубины по полю зрения.
  • Показать разницу в сигналах, принимаемых от непрозрачных и полупрозрачных объектов.

Выходные данные моделирования будут включать карты облученности, карты фаз и итоговые карты глубины, а также метрики ошибок, сравнивающие смоделированные результаты с эталонными.

6. Технический анализ и математический аппарат

Достоверность моделирования зависит от точного физического моделирования. Ключевые уравнения включают:

Оптическая длина пути (OPL): $OPL = \sum_{i} n_i \cdot d_i$, где $n_i$ — показатель преломления, а $d_i$ — геометрическое расстояние на участке $i$.

Фазовый сдвиг для C-ToF: Измеренный фазовый сдвиг $\phi$ связан с OPL и частотой модуляции $f_{mod}$: $\phi = 2 \pi \cdot 2 \cdot \frac{OPL}{c} \cdot f_{mod} = 4 \pi f_{mod} \frac{OPL}{c}$, где $c$ — скорость света. Множитель 2 учитывает путь туда и обратно. Глубина $z$ тогда: $z = \frac{c \cdot \phi}{4 \pi f_{mod}}$.

Модель сигнала: Коррелированный сигнал $S$ на пикселе для многоотводного PMD можно смоделировать как: $S_k = \alpha \int_{0}^{T} I_{emit}(t) \cdot I_{demod,k}(t - \tau) \, dt + \eta$, где $\alpha$ — альбедо/коэффициент отражения, $I_{emit}$ — интенсивность излучения, $I_{demod,k}$ — функция демодуляции для отвода $k$, $\tau$ — временная задержка, пропорциональная OPL, $T$ — время интегрирования, а $\eta$ — шум.

7. Аналитическая структура: Ключевая идея и критика

Ключевая идея

Эта работа — не просто очередной инструмент моделирования; это стратегический мост между идеализированным оптическим проектированием и сложной реальностью ToF-сенсорики. Продвигая оптическую длину пути (OPL) в качестве объединяющего основного параметра, авторы выходят за рамки простого геометрического расстояния. Это глубокий сдвиг. Он напрямую атакует ахиллесову пяту коммерческих ToF: систематические ошибки от многолучевой интерференции (MPI) и свойств материалов, которые являются зависимыми от OPL явлениями. Их подход рассматривает перенос света как первоклассный объект, что позволяет деконструировать причины сбоев карт глубины в углах, возле стекла или при окружающем освещении — уровень анализа, которого остро не хватает в большинстве даташитов производителей.

Логическая последовательность

Логика элегантно индустриальна: Определить эталонную истину (OPL через трассировку лучей) → Смоделировать неидеальное измерение датчика (добавив модуляцию/демодуляцию, шум) → Проанализировать разницу. Эта последовательность отражает лучшие практики в характеристике датчиков, но применяет их проактивно в моделировании. Использование Zemax для оптики и Python для логики датчика создает гибкий, модульный конвейер. Однако в логической цепочке есть слабое звено: в статье сильно подразумевается, но не детально описывается переход от смоделированной, идеальной карты OPL к итоговым, зашумленным, демодулированным значениям пикселей. Переход от физической оптики к электронике датчика — это критический интерфейс, где рождается большинство ошибок, и глубина его моделирования остается неясной.

Сильные стороны и недостатки

Сильные стороны: Комплексность методологии — ее главная особенность. Моделирование MPI, полупрозрачности и аберраций объектива в одном фреймворке встречается редко. Такой целостный взгляд необходим, поскольку эти эффекты взаимодействуют нелинейно. Практическая реализация с использованием отраслевого стандарта Zemax придает немедленную достоверность и переносимость командам НИОКР. По сравнению с чисто академическими рендерерами, такими как Mitsuba или Blender Cycles, которые ориентированы на визуальную достоверность, этот конвейер создан специально для метрологии.

Недостатки и слепые зоны: Главный нерешенный вопрос — вычислительная стоимость. Полная геометрическая трассировка лучей для сложных, диффузных многолучевых сцен печально известна своей дороговизной. В статье умалчивается об методах ускорения (например, двунаправленная трассировка путей, фотонное картирование) или достижимой производительности, что ограничивает воспринимаемую полезность для итеративного проектирования. Во-вторых, она, по-видимому, игнорирует волновую оптику. Эффекты, такие как когерентность, интерференция в тонких пленках или дифракция — все более актуальные для миниатюризированных датчиков и массивов VCSEL — находятся вне модели геометрической оптики. По мере перехода отрасли к dToF на основе SPAD с пикосекундным временным разрешением это становится серьезным ограничением. Наконец, валидация на основе реальных данных датчиков лишь намечена; без количественных эталонов ошибок по сравнению с физическими камерами предсказательная сила моделирования остается утверждением.

Практические выводы

Для интеграторов и разработчиков систем ToF эта статья предоставляет план. Действие 1: Примите аналитический подход, ориентированный на OPL. При отладке ошибок глубины сначала определите предполагаемые вариации оптического пути в вашей сцене. Действие 2: Используйте этот фреймворк моделирования на этапе проектирования для производства. Не просто моделируйте идеальный объектив; моделируйте его с допусками, а затем анализируйте бюджет ошибок глубины. Действие 3: Развивайте фреймворк дальше. Интегрируйте его с инструментами автоматизации электронного проектирования (EDA) для совместного моделирования оптических и электронных источников шума. Будущее ToF лежит в этом совместном проектировании. Исследовательскому сообществу следует развивать это, открывая исходный код таких конвейеров, подобно тому, как работа Стэнфорда Open3D или MIT по переходной визуализации демократизировала анализ переноса света. Конечная цель — «цифровой двойник» для датчиков ToF. Эта статья — фундаментальный шаг в этом направлении, но основная работа по валидации, ускорению и интеграции еще впереди.

8. Будущие применения и направления исследований

Предлагаемый фреймворк моделирования открывает несколько направлений для будущей работы и применения:

  • Сенсорная фузия и разработка алгоритмов: Генерация обширных, физически точных наборов данных для обучения алгоритмов машинного обучения с целью коррекции MPI, идентификации материалов или слияния данных ToF с RGB.
  • Автомобилестроение и робототехника: Моделирование сложных сценариев, таких как вождение в дождь/туман (рассеяние), или производительность датчика при различном солнечном освещении (подавление фонового света).
  • Медицина и биометрия: Моделирование взаимодействия света с биологическими тканями для применения в бесконтактном мониторинге или 3D-распознавании лиц.
  • Расширенная реальность (XR): Проектирование и тестирование датчиков ToF для очков VR/AR следующего поколения, моделирование точности отслеживания рук при различном освещении и с отражающими поверхностями.
  • Направление исследований — Гибридное моделирование: Будущие фреймворки могут объединять геометрическую трассировку лучей с волново-оптическим моделированием для учета ближнепольных эффектов и когерентности.
  • Направление исследований — Стандартизированные тесты: Сообщество может использовать этот подход для определения стандартизированных тестовых сцен и метрик для оценки производительности датчиков ToF.

9. Литература

  1. Baumgart, M., Druml, N., & Consani, C. (2018). Procedure Enabling Simulation and In-Depth Analysis of Optical Effects in Camera-Based Time-of-Flight Sensors. The International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences, XLII-2, 83-90.
  2. Druml, N. et al. (2015). REAL3™ 3D Image Sensor. Infineon Technologies.
  3. Jarabo, A., et al. (2017). A Framework for Transient Rendering. ACM Transactions on Graphics (TOG).
  4. Lange, R. (2000). 3D Time-of-Flight Distance Measurement with Custom Solid-State Image Sensors in CMOS/CCD-Technology. PhD Thesis, University of Siegen.
  5. Remondino, F., & Stoppa, D. (Eds.). (2013). TOF Range-Imaging Cameras. Springer.
  6. Schwarte, R., et al. (1997). A New Electrooptical Mixing and Correlating Sensor: Facilities and Applications of the Photonic Mixer Device (PMD). Proc. SPIE.
  7. Kirmani, A., et al. (2014). Looking around the corner with transient imaging. Nature Communications. (Внешняя ссылка на переходную визуализацию).
  8. Zhu, J.Y., et al. (2017). Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks. IEEE ICCV. (Внешняя ссылка на генеративные модели, релевантные для моделирования данных датчиков).