激光雷达-自动驾驶的“三维感知中枢“
在自动驾驶技术中,激光雷达(LiDAR,Light Detection and Ranging)是核心传感器之一,其作用类似于车辆的 “三维眼睛”,通过激光束扫描周围环境并生成高精度三维点云,为自动驾驶系统提供关键的环境感知数据。它能弥补其他传感器的固有缺陷,同时满足自动驾驶对 “安全冗余” 和 “高精度感知” 的刚需。
一、从参数到实战,为何它成为高阶智驾的“安全底线”?
相信大家对他也不陌生,几乎是带L2++辅助驾驶的车辆标配传感器。满足工业设计的原理下也会对其安装位置有所区别。
安装位置
安装形式
核心优势
主要劣势
适用场景
车顶
凸起的 “蘑菇状”“柱状” 装置,或集成在车顶行李架 / 天窗
1. 视野无死角,实现 360 度水平视场角覆盖;2. 远距离探测更稳定,减少地面杂物干扰;3. 适配高等级自动驾驶全场景感知需求
1. 影响美观与车身高度,可能增加车库限高通过难度;2. 易受极端天气影响,需搭配加热 / 清洁装置增加成本
L4/L5 级自动驾驶(如 Robotaxi)
前保险杠 / 前格栅
集成在车头保险杠内侧、格栅间隙或车牌下方
1. 隐蔽性强,不影响美观;2. 专注前向核心场景,满足跟车、紧急制动等需求;3. 成本更低
1. 视野局限大,水平视场角通常 90°-150°,无法覆盖侧方和后方;2. 车头下方可能形成探测盲区
L2/L3 级量产车
- L4/L5 级自动驾驶(如 Robotaxi):必选车顶 360 度雷达(需全向无死角感知)+ 前向 / 侧向辅助雷达(增加冗余)。
- L2/L3 级量产车:以前保险杠前向雷达为主(控制成本 + 满足核心场景),部分高端车型会加车顶雷达(提升感知能力)。
激光雷达为我们的车简单讲做的就是三件事,“看得远、看得清、看得快”。”—— 测距决定反应时间,点云密度决定识别精度,视场角决定覆盖范围。
参数
定义
常见范围
重要性
测距范围
能稳定探测到障碍物的最远距离(以 “90% 反射率物体” 为标准)
50 米(低端)-300 米(高端)
测距越远,车辆应对突发情况的反应时间越长,安全性越高
点云密度
每秒发射的激光点数(单位:点 / 秒或百万点 / 秒)
100 万点 / 秒(入门)-3000 万点 / 秒(高端)
点云密度越高,障碍物的轮廓越清晰,减少误判概率
水平 / 垂直视场角
激光雷达能覆盖的水平(左右)和垂直(上下)角度范围
水平:60°-360°;垂直:20°-90°
视场角决定覆盖范围,水平视场角大更利于全向感知,垂直视场角大兼顾天空和地面探测
角分辨率
相邻两个激光点之间的角度差(单位:度或毫弧度,数值越小分辨率越高)
水平:0.1°-1°;垂直:0.5°-2°
分辨率越高,远处物体的细节越清晰,能更精准区分相邻物体
帧率
每秒生成完整点云的次数
10Hz(低端)-30Hz(高端)
帧率越高,对动态障碍物的跟踪越流畅,减少因延迟导致的位置判断滞后风险
波长
激光束的波长
905nm、1550nm
905nm 成本低但对人眼有潜在安全风险;1550nm 对人眼安全、测距更远但成本高
通过这些参数就能明白为什么一辆自动驾驶车的激光雷达 “长在哪里、有多强”,直接关系到它能否安全、可靠地 “看懂世界”。
市面上的激光雷达主要有机械式、半固态和全固态三种类型:
二、夜雨施工加塞四大生死局
摄像头和毫米波雷达是自动驾驶的基础传感器,但各自存在难以克服的局限性。激光雷达凭借高精度三维建模、抗环境干扰强、距离测量精准的特性,在关键场景中成为 “补短板” 的核心力量。以下结合具体场景说明:
场景 1:夜间无路灯的乡村道路(低光环境)
- 摄像头的局限:依赖环境光,夜间无路灯时成像模糊,无法识别远处的行人、护栏或路边停放的车辆(如黑色轿车),容易因 “看不清” 导致制动延迟。
- 毫米波雷达的局限:能探测到障碍物的大致距离,但分辨率低,无法区分 “行人” 和 “路边石块”,可能误判为 “无需避让的静态物体”。
- 激光雷达的弥补:激光不依赖环境光,即使全黑环境,也能通过点云精准绘制出障碍物的三维轮廓(如行人的身高、车辆的长宽),并计算出实时距离(如 150 米外有行人横穿),为系统争取 3-5 秒的反应时间。
场景 2:暴雨 + 大雾的高速公路(恶劣天气)
- 摄像头的局限:雨水附着镜头导致成像模糊,雾气会散射光线,使摄像头无法识别前方车辆的轮廓,甚至误将 “雾气中的光斑” 判定为 “路灯”。
- 毫米波雷达的局限:雨雾会轻微影响信号,但更大的问题是对 “近距离加塞车辆” 的识别滞后 —— 雷达波反射面小,可能将突然切入的小轿车误判为 “远距离物体”,导致制动不及时。
- 激光雷达的弥补:激光波长较短(905nm/1550nm),穿透雨雾能力优于可见光,且点云密度高,能清晰区分 “加塞车辆的车身轮廓” 和 “雨雾干扰”,精准计算相对速度(如加塞车与本车的距离从 50 米缩短至 20 米,相对速度 30km/h),确保系统及时减速。
场景 3:城市路口的施工区域(复杂静态障碍物)
- 摄像头的局限:施工区域的临时护栏、锥形桶、堆放的建材等静态物体,在摄像头的 2D 图像中可能与 “普通路沿” 混淆,尤其是当施工区域被树荫遮挡时,光影变化会导致算法误判 “施工锥是可碾压的物体”。
- 毫米波雷达的局限:对细小组件(如锥形桶、塑料护栏)反射信号弱,可能将整个施工区域判定为 “低威胁区域”,忽略其 “不可通行” 的属性。
- 激光雷达的弥补:通过高密度点云(如 200 万点 / 秒)构建施工区域的三维模型,精准识别锥形桶的高度(约 0.8 米)、护栏的连续轮廓,甚至能区分 “可绕行的间隙” 和 “封闭区域”,引导车辆提前变道避让。
场景 4:近距离加塞与非机动车穿行(动态小目标)
- 摄像头的局限:当自行车从侧方快速切入本车道时,摄像头可能因 “运动模糊” 或 “视角遮挡”(如被旁边货车挡住),无法及时识别自行车的骑行轨迹。
- 毫米波雷达的局限:自行车的金属部件少,雷达反射面积小,且速度变化快,可能被误判为 “静止物体” 或 “低速障碍物”,导致系统反应延迟。
- 激光雷达的弥补:侧视激光雷达(安装在翼子板)可捕捉到自行车的点云轮廓(车轮、车身),实时计算其速度(如 5m/s)和切入角度(与本车车道夹角 30°),结合预测算法判断 “是否会碰撞”,提前触发减速或小幅避让。
三、传感器博弈论
NOA全称为Navigate on Autopilot,通常被业界称为“领航辅助驾驶”或“高阶智能驾驶”。不同车企会有不同叫法。
大部分车企的 NOA 类功能 核心相似,但命名不同,通常分为 高速、城市、全场景 三个层级。
(用于精准测距、变道决策)
(特斯拉 NOA 主要依赖视觉+毫米波)
(复杂路口、行人/车辆交互)
(需极高算力+BEV+Occupancy Networks)
(需多传感器冗余)
(如特斯拉 FSD 完全版)
场景越复杂、安全要求越高,激光雷达的参与度越高—— 它不是替代摄像头,而是在摄像头 “不靠谱” 时成为 “最后一道防线”。激光雷达的核心价值是 “提供不依赖环境的高精度三维感知”,弥补摄像头的 “环境敏感性” 和雷达的 “分辨率缺陷”。
四、豪华到普惠,价格与技术博弈
当前国内市场大部分中高端车型已配备激光雷达,甚至还有OEM下探到10W区间,这里主要介绍几个对比
探测距离 200 米(10% 反射率下 150 米)
点云密度 75 万 - 150 万点 / 秒
支持无图城区领航、记忆泊车
双英伟达 Orin 芯片(508TOPS 算力)
探测距离 500 米(10% 反射率下 250 米)
支持 “定睛凝视” 高密度点云
覆盖高速 / 城区场景,支持自动换电协同
ADAM 超算平台(1016TOPS 算力)
点云数量 153 万点 / 秒
探测距离覆盖高速全场景
重点优化家庭出行场景,支持施工区域识别
双英伟达 Orin-X 芯片(508TOPS 算力)
探测距离 250 米
点云密度 184 万点 / 秒
支持无保护左转、施工区域绕行,计划 2025 年升级 L3
华为途灵平台(算力未公开,但支持 4D 毫米波雷达融合)
探测距离 300 米
点云密度 120 万点 / 秒
支持记忆泊车、遥控泊车,价格下探至 10 万级
高通骁龙 8650 芯片(100TOPS 算力)
探测距离未明确,但支持无图城区 NDA
支持乡村道路、盘山公路避障,实测 0 接管率领先
英伟达 Orin-X 芯片(254TOPS 算力)
探测距离未明确,但支持全场景高阶智驾
支持高速 / 城区领航、多场景泊车,合资品牌中智驾功能最全面
英伟达 Orin-X 芯片(254TOPS 算力)
支持城市领航与高快领航,探测距离未明确
支持 1000km 无接管高速领航,计划 2025 年升级 L3
算力未明确,但支持端到端大模型
激光雷达车型正从高端走向普及,不同技术路线与市场定位满足多元化需求。2025 年成为 L3 级自动驾驶的量产元年,华为、小鹏、比亚迪等车企计划下半年推出 L3 车型。L3 级要求系统在特定场景(如高速)完全接管驾驶,对激光雷达的可靠性与算力提出更高要求。