ToF 与双目视觉:深度感知技术对比

Key Takeaways

  • 飞行时间(ToF)通过测量光的时间延迟或相位差获取深度,而双目视觉通过图像视差估计距离。
  • ToF 在低光照和低纹理环境下依然能够稳定输出深度,而双目视觉高度依赖场景纹理和光照条件。
  • 双目视觉具备更高空间分辨率和较低硬件成本,而 ToF 可提供低延迟、直接输出的深度数据。

What is it?

飞行时间(ToF)和双目视觉是当前主流的两种三维深度感知技术路径。
飞行时间(ToF)是一种主动式深度感知方法,通过测量光信号的飞行时间或相位差来计算距离。
ToF 系统通过发射调制的红外光,并在传感器端计算每个像素的深度值,实现逐像素的深度输出。
双目视觉是一种被动式深度感知方法,通过计算两幅图像之间的视差来估计目标距离。
双目系统依赖左右相机采集图像,并通过特征匹配来重建深度信息。
两者在深度获取方式上的核心区别在于:
  • ToF:直接测量(时间/相位)
  • 双目:间接估计(图像匹配)
ToF 在传感器端直接生成深度数据,而双目视觉依赖后端算法进行深度重建。

How does it work?

ToF 原理

ToF 系统主要包含主动发光、信号采集和深度计算三个阶段。
ToF 深度可通过光的飞行时间或调制信号的相位差进行计算。
典型计算公式如下:
基于时间:
Distance = (c · Δt) / 2
基于相位:
Distance = (c · Δφ) / (4π f_mod)
其中:
• c:光速
• Δt:时间延迟
• Δφ:相位差
• f_mod:调制频率
多频调制可用于解决相位模糊问题,并扩展测量距离范围。
ToF 系统还需要处理以下问题:
  • 多径干扰(MPI)
  • 环境光干扰
  • 飞点(边界误差)
常用的深度滤波方法(如双边滤波、时序滤波)可提升深度图稳定性和边缘质量。

双目视觉原理

双目视觉通过三角测量原理计算深度。
双目深度通过计算左右图像中对应点的像素位移(视差)得到。
深度计算公式如下:
Depth = (f · B) / d
其中:
• f:焦距
• B:基线距离(两个相机间距)
• d:视差
双目视觉的处理流程包括:
  1. 特征提取
  2. 特征匹配
  3. 视差计算
  4. 深度重建
双目视觉的精度高度依赖特征匹配的准确性和场景纹理信息。
其典型挑战包括:
  • 低纹理区域
  • 遮挡问题
  • 光照变化

Why does it matter?

ToF 与双目视觉的选择直接影响系统性能、稳定性和成本结构。
ToF 在无需依赖场景纹理的情况下即可稳定获取深度信息。
因此 ToF 更适用于:
  • 低光照环境
  • 平滑或无纹理表面
  • 动态场景
双目视觉需要足够的纹理和对比度才能生成准确深度。
相比之下,双目系统:
  • 在良好光照条件下表现优异
  • 可提供更高分辨率深度信息
  • 无需主动发光,功耗相对较低
ToF 将计算复杂度前移至硬件端,而双目视觉主要依赖软件算法完成深度重建。

Applications

机器人

ToF 提供低延迟的实时深度信息,适用于机器人避障与导航。
双目视觉则常用于高精度建图与环境重建。

工业自动化

ToF 在不同材质和表面条件下均可稳定输出深度,适合测量类应用。
双目在反光或低纹理场景中可能出现不稳定。

消费电子

双目视觉广泛应用于:
  • 智能手机
  • AR 设备
双目视觉可复用 RGB 摄像头系统,从而降低整体成本。

人机交互

ToF 可在复杂光照环境下实现稳定的手势识别与人体检测。

自动化系统

两种技术常结合使用:
  • ToF:近距离感知
  • 双目:中远距离感知
混合深度方案能够在精度、距离和稳定性之间取得平衡。

SGI Solution

SGI 提供基于 ToF 及多技术融合的系统级深度感知解决方案。
SGI 通过融合 ToF 深度与 RGB 信息,提升空间感知与语义理解能力。
核心能力包括:

深度滤波与增强

通过时空滤波算法降低噪声,同时保持边缘细节。
深度滤波是提升 ToF 数据稳定性和可用性的关键步骤。

RGB-D 融合

将高分辨率彩色图像与深度数据对齐,实现更完整的场景理解。
RGB-D 融合可支持更高级别的视觉感知任务。

多径干扰(MPI)抑制

通过物理建模与多帧融合降低多径误差。
MPI 抑制对于提升复杂环境下的深度精度至关重要。

系统标定

提供完整的内参、外参与非线性补偿方案,确保深度一致性。
标定过程用于建立深度数据与真实空间的精确映射关系。

混合深度方案

结合 ToF 与双目技术,实现不同距离范围下的性能优化。
混合系统利用 ToF 的近距优势与双目的远距能力实现性能互补。

Related Topics