小米汽车的智能驾驶系统以 **Xiaomi HAD(端到端全场景智能驾驶)** 为核心,整合了硬件分层配置与端到端大模型技术,覆盖高速、城市道路及泊车场景。以下是其核心技术特点与实际表现的详细解析:
一、技术架构与核心功能
- 端到端大模型架构
Xiaomi HAD 采用端到端设计,将感知、预测、规划整合为单一 AI 模型,直接通过原始数据生成驾驶轨迹,减少模块间信息误差,提升决策效率。系统引入视觉语言大模型(VLM),可识别施工路段、丁字路口等复杂场景,并通过语音交互优化决策能力。此外,系统基于用户驾驶数据训练,无需依赖高精地图即可实现拟人化轨迹规划,尤其在无图区域表现突出。
- 功能覆盖
- 高速 NOA:支持自动变道、超车、上下匝道,最高时速 135km/h,AEB 功能可识别车辆、行人、二轮车。
- 城市道路:2025 年 2 月全量推送端到端功能后,支持城区路口通行、无保护左转等场景,但复杂场景下接管率较高。
- 泊车场景:实现车位到车位的代客泊车,支持记忆泊车、跨层泊车及漫游寻位(车位被占时自动寻找新车位)。
二、硬件配置:分层设计满足不同需求
小米汽车根据车型版本将智驾硬件分为标准版与高阶版:
- 标准版(如 SU7 后驱标准长续航智驾版):
配备 9 颗摄像头(含前视、环视)、1 颗毫米波雷达、12 颗超声波雷达,无激光雷达,搭载英伟达 Orin N 芯片(算力 84TOPS),仅支持高速 NOA 与基础泊车辅助。 - 高阶版(如 SU7 Max/Ultra):
增加 2 颗侧视摄像头、4 颗角毫米波雷达及 1 颗车顶激光雷达,超声波雷达保持 12 颗,采用双 Orin 芯片(总算力 508TOPS),支持端到端全场景智驾、城市 NOA 及计划于 2025 年落地的 L3 级自动驾驶。
三、实际表现与用户反馈
- 优势
- 拟人化驾驶:端到端模型优化轨迹平滑度,减少急加速 / 急刹车,在高速巡航中加减速果断,跟车距离可自由调节。
- 泊车能力:车位到车位功能在特定场景下可用性较高,支持机械库位泊车及复杂车位识别。
- 生态整合:与小米人车家生态深度联动,例如通过小爱同学实现连续语音控车、协同唤醒手机 / Pad 设备。
- 局限性
- 复杂场景处理:城市道路中面对施工避让、交叉路口等场景时,接管率高于小鹏、华为等竞品。
- 系统响应延迟:部分试驾反馈显示,变道提示音滞后、前车急刹时动态调整不够及时,且在拥堵路况下换道策略偏保守。
- 安全争议:2025 年 3 月事故中,系统被指未能识别路障,小米回应称 “行业同配置车型亦不支持”。
四、对比与行业定位
- 横向对比
- 小鹏 / 华为:采用激光雷达 + 多传感器融合方案,端到端技术成熟度更高,复杂场景表现更优。
- 极氪 007:凭借 “端到端 Plus” 架构和场景认知大模型,在无图城市 NZP 与交互决策上领先,硬件冗余更强。
- 小米优势:硬件分层策略降低入门门槛,全系标配高速领航与代客泊车,性价比突出。
- 行业地位
根据应急管理部标准,Xiaomi HAD 仍属L2 级辅助驾驶,驾驶员需全程监控。尽管其端到端技术实现了从 0 到 1 的突破,但在纯视觉路线的局限性及实际体验上仍需提升。
五、本地化与未来规划
- 无图方案优化
系统依赖用户驾驶数据训练,适配中国复杂道路环境,例如施工路段绕行、无保护左转等场景。2025 年 2 月全量推送后,已覆盖中国大陆全域城市道路。
- 未来升级方向
小米计划在 2025 年实现L3 级自动驾驶落地,并持续优化端到端模型。通过引入视觉 - 语言 - 动作模型(VLA),未来系统可能从语音提醒进化为直接输出驾驶动作,进一步提升交互能力。
总结
小米汽车智驾系统以端到端大模型为核心,通过硬件分层策略覆盖不同需求,在高速领航、泊车等场景表现稳定,但复杂城市路况仍需依赖驾驶员。其优势在于生态整合与性价比,短板则是技术成熟度与实际体验的精细化。随着数据积累与 OTA 升级,系统有望逐步从 “能用” 向 “好用” 迈进,成为小米汽车差异化竞争的关键抓手。