小米汽车的智能驾驶系统以 ** 端到端全场景智驾(Xiaomi HAD)** 为核心,整合了自研算法、多传感器融合硬件和生态协同能力,覆盖从高速公路到城市道路的复杂场景。以下是其智驾系统的详细解析:
一、核心技术架构:端到端深度神经网络
小米汽车采用 ** 端到端全场景智能驾驶(Xiaomi HAD)** 技术,这是一种将感知、决策、规划整合为统一模型的架构,直接从传感器信号输入生成车辆控制指令,无需传统模块化拆分。这种架构的优势在于:
- 低延迟与高鲁棒性:减少模块间数据交互延迟,提升复杂场景(如施工路段、环岛)的自适应能力。
- 拟人化驾驶:通过用户驾驶数据训练,系统能模拟老司机的预判能力,例如提前规划绕行路径、优化变道时机。
- 无图方案:依赖多传感器融合和实时数据驱动,无需高精地图即可实现全国城市道路的 NOA(导航辅助驾驶)。
二、硬件配置:多传感器协同感知
小米汽车根据车型配置不同,分为标准版和高阶版两种硬件方案:
- 标准版(SU7):
- 传感器:11 颗高清摄像头(覆盖 360° 环境)、1 个毫米波雷达、12 颗超声波雷达。
- 算力:单颗 NVIDIA DRIVE Orin 芯片,算力 84TOPS。
- 功能:支持高速 NOA(自动上下匝道、超车)、自动泊车、LCC 车道居中辅助。
- 高阶版(SU7 Pro/Max/Ultra):
- 传感器:在标准版基础上增加1 颗禾赛 AT128 激光雷达(探测距离 200 米,153 万点云 / 秒)、5 个毫米波雷达。
- 算力:双 NVIDIA DRIVE Orin 芯片,算力 508TOPS。
- 功能:支持城市 NOA(全国道路通行)、代客泊车、施工避让等。
三、功能覆盖与场景表现
- 高速场景:
- NOA 导航辅助:自动完成 ETC 通行、弯道降速、超车变道,最高支持 130km/h 时速。
- 主动安全:AEB 紧急制动(8-135km/h 生效,支持车辆、行人、二轮车,但不识别锥桶、水马等异形障碍物)。
- 城市道路:
- 端到端全场景:支持车位到车位的无缝衔接,包括路边启动、环岛通行、无保护左转等。
- 施工避让:通过视觉大模型识别临时路障并规划绕行路径。
- 泊车场景:
- 自动泊车:支持机械车位、极窄车位泊入(精度 5cm),最高泊车速度 23km/h。
- 代客泊车:记忆停车场路线,实现自主寻位和泊出。
四、技术亮点与争议
- 技术创新:
- 变焦 BEV 与超分 OCC:通过动态调整摄像头视角和占用网络算法,提升远距离障碍物识别精度。
- 物理世界建模:分为数据观测层(传感器融合)、隐式特征层(深度神经网络)、显式符号层(决策输出),实现多维度环境理解。
- 争议与挑战:
- 事故案例:2025 年 3 月,小米 SU7 标准版在高速 NOA 状态下未有效识别施工改道,导致碰撞事故。官方回应称 AEB 功能与行业同配置车型一致,不支持异形障碍物。
- 纯视觉局限性:标准版依赖摄像头和毫米波雷达,在夜间或复杂光照条件下可能出现感知偏差。
- 用户体验:部分用户反馈城区道路变道逻辑激进、施工区域识别不稳定。
五、生态整合与未来规划
- 小米生态联动:
- 手机互联:支持小米妙享无缝连接,手机导航可同步至车机,智能家居设备远程控制。
- 车路协同:未来计划接入城市交通数据,优化信号灯通行效率。
- 技术迭代:
- OTA 升级:2024 年 10 月推送的 1.4.0 版本优化了车道居中、代客泊车等功能。
- 端到端大模型:引入用户驾驶数据训练,持续提升拟人化决策能力。
六、与行业对比
维度 | 小米汽车 | 华为 ADS 2.0 | 特斯拉 FSD |
---|---|---|---|
传感器方案 | 多传感器融合(激光雷达可选) | 激光雷达 + 视觉 + 毫米波雷达 | 纯视觉(摄像头 + 神经网络) |
功能覆盖 | 高速 / 城市 NOA、代客泊车 | 城区 / 高速全场景、异形障碍物识别 | 城市道路通行、自动变道 |
算力平台 | NVIDIA Orin(最高 508TOPS) | 华为昇腾(最高 400TOPS) | Dojo 超算(影子模式训练) |
用户体验 | 生态互联强,复杂场景偶发接管 | 稳定性高,AEB 性能领先 | 激进变道风格,依赖数据积累 |
总结
小米汽车的智驾系统以 ** 端到端全场景智驾(Xiaomi HAD)** 为核心,硬件上采用多传感器融合方案,软件上通过自研大模型实现拟人化决策。尽管在复杂实现拟人化决策。尽管在复杂场景处理和 AEB 功能上存在争议,但其生态整合和 OTA 升级能力为用户提供了差异化体验。未来,随着端到端技术的持续优化和激光雷达的普及,小米智驾有望在安全性和场景覆盖上进一步提升。