本文目录一览:
- 1、203万辆!因自动驾驶缺陷紧急召回,特斯拉:问题不大
- 2、736起车祸,17人死亡!特斯拉自动驾驶事故真实数据曝光
- 3、特斯拉使用“智能召唤”后撞上飞机
- 4、特斯拉杭州车祸引发争议,自动驾驶交通事故责任如何认定?
- 5、特斯拉杭州车祸引发争议,特斯拉这么不靠谱,为什么还在有人购买呢?
- 6、特斯拉美国索赔案胜诉 法院裁定Autopilot未失去安全性能
- 7、车主上路实测特斯拉全自动驾驶撞上护栏
- 8、特斯拉或因自动驾驶系统面临刑事指控,事件后续可能如何进展?
- 9、国内一特斯拉“自动驾驶”时突然失控,撞树后气囊未弹,官方对此有何表示?
- 10、有无人自动驾驶技术的汽车安全可靠吗?
203万辆!因自动驾驶缺陷紧急召回,特斯拉:问题不大
成本几乎为0
”
作者|王磊 楚门
203万辆!
特斯拉刚刚宣布启动大规模召回,这几乎是在美国销售的所有车辆。
召回原因,恰恰是特斯拉引以为傲的自动驾驶,美国国家公路交通安全管理局(NHTSA)称其存在“缺陷”。
不过这不是传统意义上的召回,根据NHTSA公布的文件,特斯拉将通过OTA(Over-the-Air)的方式,来解决相关问题。
而马斯克本人也曾对“召回”一词表示过不满,他认为将OTA更新视作召回,是非常不合理并且是完全错误的。
即便如此,不少业内人士认为,此次大规模召回,势必会影响到特斯拉的核心业务。
01
?使用将更严格
昨天,NHTSA发布公告,特斯拉的自动驾驶问题可能涉及自2015年底,启用Autopilot以来在美国销售的所有车辆,其中还包括 2012年老款Model S 。
我们先来看NHTSA对这次召回是怎么描述的:
“某些情况下,如果司机滥用SAE 2级驾驶辅助功能,会导致他们无法持续对车辆操作负责,并且没准备好进行干预,无法识别该功能何时被取消或未启用,就会有增加碰撞风险的可能。”
NHTSA的这段话非常拗口,简单来说就是,特斯拉配备的Autopilot 的自动转向辅助系统(Autosteer)功能,可能会导致司机在驾驶时对道路的注意力不够集中。
大多数情况下,配备自动转向辅助系统的汽车,都会有一些安全措施来防止驾驶员分心。
比如,当你的手暂时离开方向盘,系统就会发出警告。一旦触发警告的次数多了,或者手离开方向盘的时间过长,就会收到“最后通牒”——系统将自动关闭,驾驶员就必须重新掌握对车辆的完全控制权。
这是大部分搭载L2级自动驾驶辅助系统汽车的要求,但特斯拉的 Autopilot似乎没有做到这一点。
美国国家公路交通安全管理局(NHTSA)称,特斯拉的系统未能正确提醒双手离开方向盘的驾驶员,因此美国安全监管机构要求其召回从 2012年开始到今天销售的,所有配备自动转向辅助功能的特斯拉车型。
需要指出的是,这次召回是对特斯拉自动驾驶系统进行为期两年的调查结果。
2021年8月,NHTSA对11起涉及使用特斯拉自动驾驶功能发生碰撞的事故展开了调查,NHTSA发现,如果驾驶员?“滥用?”Autopilot 的自动转向系统,可能会增加撞车风险。
今年10月至12月,特斯拉和NHTSA举行了多次会议,最终在12月5日同意自愿召回,进行OTA更新。
为了解决这一问题,特斯拉从12月12日开始,对受到影响的车辆推送了软件版本为2023.44.30的免费OTA更新。
更新的内容包括:
1.在已受影响的车辆上,增加额外的控制和提醒,根据车辆硬件的不同,额外的控制措施将包括简化Autosteer的启动和退出,并在启动时、行驶时以及接近交通管制点时,进行额外检查。
2.在使用Autosteer过程中,系统会对驾驶员进行监测,如果驾驶员不能良好的履行驾驶责任,比如将手放在方向盘上并注意道路情况,那么相关功能将会被暂停使用。
3.如果驾驶员在不符合条件下启用Autosteer功能,系统将提示禁用,并确保Autosteer不会启动。
整体来看,这次OTA更新,对车主在开启和使用相关功能时的要求更加严格。
此外,此次OTA更新的车辆不涉及12月7日后生产的车型,在这之后出厂的新车,软件版本已经是最新的2023.44.30了。
另据路透社报道,特斯拉并未回应是否会在除美国以外的地区进行召回。
02?
召回成本为0,马斯克继续口嗨
不过特斯拉股价似乎并没有受这次“召回”的影响,北美时间12月13日,特斯拉一度跌超3%,但后续又回暖,截至当日收盘,报价239.29美元,反而涨了1%。
特斯拉投资者、未来基金的管理合伙人加里·布莱克(Gary Black)在公开平台上表示,特斯拉OTA更新和NHTSA的“召回”,从未对特斯拉的估值或股价造成超过一天的影响,因为特斯拉OTA更新的成本接近于零。
或者说市场已经对这类的消息司空见惯了,这种层次的“召回”也无伤大雅。
事实上,过去几年,NHTSA曾对特斯拉发起很多次的调查,其中大多数都与特斯拉的自动驾驶的安全性有关。
早在今年2月,NHTSA就曾宣布,特斯拉要召回多达362758辆配备了全自动驾驶测试版软件或尚未安装的汽车,给出的理由是会增加撞车的风险。
7月份,NHTSA宣布重新启动对特斯拉车辆涉嫌意外加速的调查,这项调查涉及特斯拉生产的约180万辆汽车,这也几乎涵盖当时所有的车型,因此引起了外界的高度关注。
就在几天前,加州车管局(DMV)认为,特斯拉在使用“自动驾驶”术语时存在欺骗性,他们认为这些名称暗示了特斯拉汽车可以实现完全自动驾驶,但实际上它们只是一种辅助驾驶系统,仍然需要驾驶员的监督和控制,并要求特斯拉提供更多关于其 FSD 项目的数据。
有意思的是,特斯拉的回应态度还挺强硬,辩解称,DMV“自2014年和2016年特斯拉开始使用 Autopilot 和 FSD 名称以来就一直知情”,而且还“默许了这些名称的使用”。
特斯拉认为,DMV既然此前没有采取任何行动,现在就应该允许该公司继续使用这些名称。此外,特斯拉还声称,限制该术语的使用侵犯了其言论自由。
确实,FSD作为特斯拉的核心竞争手段,特斯拉一直都在大力宣传自家的自动驾驶,直到今年4月份马斯克还公开表示,2023年将会实现全自动驾驶。但现实是,马上都要2024年了,FSD仍然没有实现全自动驾驶的功能。
面对越来越大的舆论压力,特斯拉的态度也在逐渐放软。在NHTSA发起调查后,特斯拉在其官网上表示,即便安装全自动驾驶系统,司机也必须随时准备干预。
特斯拉之所以在自动驾驶的问题上态度向来强硬,都是来源于FSD对于特斯拉的特殊性。
马斯克曾不止一次地表示过,自己可以零利润的销售汽车,言外之意是,特斯拉可以不在硬件上赚钱,但必须得有可以替代的赚钱的东西,那特斯拉靠什么赚钱?
答案就是特斯拉的全自动驾驶能力。
目前FSD在北美定价为1.2万美元(约合人民币8.6万元)或者按照每月199美元/99美元的定价收费。以OTA成本接近于零的价格来计算,确实比销售汽车的利润高得多。
就像马斯克说的那样:“从长远来看,自动驾驶收入会让所有这些数字(传统汽车销售利润)看起来都很愚蠢。”
对于这次“召回”,马斯克暂时还没有在推特上“反对”,但一直以来马斯克都坚定地认为,自动驾驶比起人类司机要安全得多。
“特斯拉的FSD(全自动驾驶)测试版,已经非常接近在不受监管的情况下比人类司机更安全的目标了。”
【本文来自易车号作者超电实验室,版权归作者所有,任何形式转载请联系作者。内容仅代表作者观点,与易车无关】
736起车祸,17人死亡!特斯拉自动驾驶事故真实数据曝光
你相信自己还是相信FSD?
”
作者|王磊 曹婷婷
特斯拉又被打脸了。
号称比人类驾驶安全十倍的特斯拉自动驾驶,成为美国过去几年自动驾驶车祸的头号帮凶。
美国国家公路交通安全管理局(NHTSA)最新数据:
自2019年以来,美国涉及特斯拉自动辅助驾驶模式有关的车祸事故,达到736起,这些意外车祸导致了17人死亡。
《华盛顿邮报》分析称,这些涉及特斯拉的事故数据远超之前的报道,也意味着以前的统计数据并不完整,而且现在的数据,也不敢保证绝对完整...
01
?特斯拉自动驾驶车祸占比超90%
2021年,美国政府开始对自动辅助驾驶加大关注度,要求汽车制造商披露涉及辅助驾驶技术的事故,NHTSA(美国国家公路交通安全管理局)一共收到了807起与自动驾驶有关的车祸案件。
其中涉及特斯拉的是736起,占比超90%,而斯巴鲁则是排名第二,自2019年以来报告了23起事故。
来源:特斯拉
去年6月,NHTSA首次发布过关于与自动辅助驾驶相关事故的数据,当时的数据是有3人死亡。
按照NHTSA最新披露的数据,过去4年的时间里,有17起死亡事故,值得注意的是,有11起事故,是发生在去年5月以后,其中还有5起重伤事故。
来源:Electrek
这意味着,过去一年,自动驾驶涉及事故的数量开始激增,安全隐患也越来越大。
为什么相关车祸会增长这么快?
这和特斯拉的保有量和其FSD的用户基数不断增加有一定关系。
特斯拉的自动驾驶技术包括辅助驾驶模式(Autopilot)和全自动驾驶模式(Full Self Driving,FSD),Autopilot可以在高速公路上控制车辆的速度和方向,FSD则可以在城市道路上进行导航和转弯。
2020年11月,特斯拉推出FSD Beta版,初期只面向少量用户,对参与测试计划的车主还有一定要求,比如要达到一定的安全评分标准,还要有高级驾驶员辅助功能Autopilot的100英里使用记录等。
来源:特斯拉
随着FSD不断更新,截止到2022年6月,特斯拉FSD Beta版本已累计行驶3500万英里(约5632.7公里),官方表示,参与测试的人数已经超过16万人。
也是在2022年11月,特斯拉FSD面向北美地区全量开放,对参与测试人数没有额外要求,交钱就能使用,特斯拉FSD在北美的售价为15000 美元(约10.7万元人民币)。
华盛顿邮报指出,特斯拉在一年之内安装FSD软件的车辆,从1.2万辆快速扩张到近40万辆,与此同时事故数量也在增加。
根据NHTSA的报告,特斯拉将Autopilot描述为“旨在支持和协助驾驶员进行驾驶的L 2级驾驶自动化系统”。这意味着Autopilot并不是自动驾驶技术,但NHTSA调查数据表明,很多人将它视为自动驾驶技术,这也导致了悲剧的发生。
当然,自动驾驶引发的死亡事故占比在车祸中仍然很低,NHTSA统计的数据中,去年大约有4万人死于交通事故。
02
?雷达开始回归
在特斯拉自动辅助驾驶所引起的事故中,大约有80%是因为汽车没能紧急制动。
华盛顿邮报分析称,除了用户基数变大,车祸激增的另外一个原因可能是特斯拉取消了雷达传感器。
2021年,马斯克曾在一条推文中表示,特斯拉将转向“纯视觉”的方式。
当年5月,特斯拉就宣布从当月开始交付的所有Model 3和Model Y,将用特斯拉的纯视觉系统,摘了雷达,这意味着特斯拉的自动驾驶系统将完全依赖基于相机的视觉处理,每辆特斯拉都配备 8 个外部摄像头来监测周围环境。
来源:特斯拉
一般来说,雷达在自动驾驶的过程中承担了相当重要的作用,就好比汽车中无形的眼睛。
雷达会向目标发射探测信号,然后将接收到的从目标反射回来的信号与发射信号进行比较,一番处理后,就可获得目标的有关信息,如目标距离、高度、方位、速度、姿态、形状等参数。
这也能够与摄像头形成互补,帮助自动驾驶建立更真实的感知世界。
来源:特斯拉
所以当特斯拉宣布彻底转向纯视觉路线后,引发不少质疑。此前就有外媒报道称,自从2021年马斯克宣布“移除雷达传感器”后,特斯拉车辆发生事故的数量也有所增加。
一组数据也从侧面印证了这样的问题,美国NHTSA数据显示,过去9个月收到了数百起关于特斯拉车型误刹车的投诉,2022年全年,有超过750名车主投诉,他们的汽车在行驶过程中无缘无故自动刹车。
在他们看来,特斯拉“误刹车”的情况越来越多,就和移除了车辆上的雷达有关。
目前业内普遍的共识是,纯视觉方案精准度和鲁棒性(Robust)并不如激光雷达混合方案,前者很难达到自动驾驶要求的安全标准。
因为纯视觉方案取消了激光雷达,采用纯摄像头作为数据输入,导致其是用二维图像生成三维空间,很难准确掌握障碍物的三维位置信息。
同时摄像头的输入高度受到光照等环境影响,在逆光、大雪遮挡的情况下会造成辨识困难,对白色物体检测不佳等情况。
来源:特斯拉
为什么特斯拉还要取消雷达使用纯视觉?
特斯拉多次强调过,摄像头数据和雷达数据在做融合的时候比较困难,当两者数据有冲突时,系统反而会更难抉择。
马斯克也表示,与其让二者互相扯后腿,不如只选一个并把它做到极致。而且,在他看来,特斯拉的深度学习系统已经比毫米波雷达强100倍,现在的毫米波雷达已经开始拖后腿了。
来源:推特
当然,如果有一个“非常高分辨率的雷达”就是另外一回事了。
年前,特斯拉HW4.0的硬件信息被海外大神曝光,证实从HW4.0开始,特斯拉又重新加入了毫米波雷达,这也意味着特斯拉面对现实终于开始妥协。
03
?FSD能否顺利入华?
最近一段时间,“特斯拉FSD即将入华”的消息爆了,有消息称特斯拉FSD即将入华,上海将作为第一个试点城市开放。
但很快此消息被特斯拉相关负责人辟谣。
虽然消息不实,但这事绝不是空穴来风。
今年早些时候,上海官方表示,将会再推进自动驾驶、机器人等板块与特斯拉深化合作。前不久,马斯克访华期间会见了商务部、工信部等多部门主管,就智能网联汽车发展交换了意见。
而且就在前几天,马斯克在国内社交媒体平台上提到,“特斯拉很乐意将Autopilot/FSD或其他技术授权给有需要的公司”。?
来源:微博
种种迹象表明,FSD大概率会全面进华,只不过时间还未确定。
特斯拉的智能驾驶包一般分为AP(Autopilot)标配版本,EAP(Enhanced Autopilot)增强辅助驾驶以及顶配的FSD(Full Self-Driving)
FSD作为特斯拉Aotopilot的升级版,其功能更加智能,能够实现自动泊车、自主变道、识别交通信号灯,以及停车场智能召唤等功能。
目前国人可以支付6.4万元购买特斯拉FSD功能,但该功能一直未被批准使用,即使购买了,现阶段国内特斯拉车型只能使用EAP增强版辅助驾驶的功能。
可以想象的是,特斯拉国产化产生的“鲶鱼效应”已经完成使命,如今特斯拉的“第二条鲶鱼”——FSD也将马上到来,国内城区自动驾驶肯定会更加热闹。
不过,你敢放心用吗?
【本文来自易车号作者超电实验室,版权归作者所有,任何形式转载请联系作者。内容仅代表作者观点,与易车无关】
特斯拉使用“智能召唤”后撞上飞机
特斯拉使用“智能召唤”后撞上飞机
特斯拉使用“智能召唤”后撞上飞机,一辆特斯拉汽车撞上了一架价值 2300万的私人飞机喷气式飞机。马斯克曾说,有自动驾驶功能的特斯拉发生事故的几率比普通汽车低近10倍。特斯拉使用“智能召唤”后撞上飞机。
特斯拉使用“智能召唤”后撞上飞机1 据The Verge报道,周四,一位Reddit网友发布了一段视频,似乎显示一辆使用“智能召唤”(Smart Summon)功能的特斯拉汽车慢慢地撞上了一架价值350万美元的私人飞机。这位Reddit用户说,事件发生在飞机制造商Cirrus在华盛顿州斯波坎市的Felts Field主办的一个活动上。
一段监控录像显示,这辆特斯拉汽车慢慢地撞上了Cirrus Vision Jet,然后实际推着它穿过停机坪。Felts Field的发言人也没有回应评论请求。
据悉,这位特斯拉车主当时正在使用 “智能召唤”功能,该功能使特斯拉汽车能够离开停车位并绕过障碍物到达其车主身边。只需使用智能手机上的特斯拉应用程序,只要汽车在车主的视线范围内,就可以从最远的200英尺处 “召唤”汽车。
这位Reddit用户说,他们也拥有一辆特斯拉Model Y,但并不是那个"在几架昂贵的飞机周围召唤他的特斯拉的可怜虫(决策能力差)--只是把它撞到最昂贵的飞机上(350万美元)!"
“智能召唤”功能在2019年首次推出,随后特斯拉车主开始发布了一些差点撞车或混乱、缓慢行驶的车辆的视频。一位特斯拉车主在Twitter上说 “前保险杠损坏”,而另一位车主声称他们的Model 3“撞到了(一个)车库的侧面”。一段与一辆超速行驶的SUV险些相撞的`视频让车主感到他们对“智能召唤”功能的测试“不那么顺利”。
据Electrek报道,该功能的较新版本使车主能够在更远的地方召唤他们的特斯拉汽车,并能在更复杂的停车环境中导航。特斯拉首席执行官埃隆·马斯克将智能召唤描述为该公司 “有史以来最具病毒性的功能”。
特斯拉使用“智能召唤”后撞上飞机2 4月23日,事故发生在当地时间周五:在米国,一辆特斯拉汽车撞上了一架价值 2300万的私人飞机喷气式飞机。因为车主激活了特斯拉的“智能召唤”功能,使Model Y 车辆能够离开停车位并绕过障碍物驶向车主,结果发生了这样的事故。
哎呀!在任何时候,自动驾驶可能是一个好主意,但,或者,至少在超级昂贵的飞机周围,最好还是不要用得好。
不清楚整个事件是在米国哪个机场发生的,但你可以看到电动车慢慢地朝Cirrus Vision Jet滚去,然后撞上了它的尾部并继续移动......使飞机几乎完全旋转。
当然,这不是第一次有特斯拉自动驾驶汽车事故了,在我们国内特斯拉可是“出名”的汽车,而且上过几次热搜。不过值得庆幸的是,这次似乎没有受太严重伤害。
还记得特斯拉创始人埃隆·马斯克出来说,有自动驾驶功能的特斯拉发生事故的几率比普通汽车低近10倍。
特斯拉使用“智能召唤”后撞上飞机3 4月23日消息,美国当地时间周五,社交新闻网站Reddit上爆料显示一辆特斯拉汽车在启用“智能召唤”功能时,撞上了一架价值350万美元的私人飞机。
Reddit用户表示,此次事件发生在美国华盛顿州斯波坎市的费尔茨球场,当时飞机制造商Cirrus赞助了一场活动。特斯拉汽车慢慢撞上了Cirrus Vision喷气式飞机,然后将其推过了停机坪。
据悉,当时这位特斯拉车主启用了“智能召唤”功能,该功能可以让特斯拉汽车离开停车位,并通过导航绕过障碍物到达车主面前。只需在智能手机上使用特斯拉应用,车主就可以在最远60米外召唤自己的汽车,前提是需要汽车保持在车主视线之内。
这位Reddit用户说,他拥有一辆特斯拉Model Y,但并不像那位“(决策能力差的)倒霉蛋,他把特斯拉召唤到几架昂贵飞机周围,结果撞到了最贵(350万美元)的一架!”
“智能召唤”功能于2019年首次推出,特斯拉车主立即开始发布各种视频,显示其引发的撞车或混乱场景。一位特斯拉车主在推特上发帖称自己的前保险杠受损,而另一位车主则声称他的Model 3“撞到了车库的侧面”。
一段与一辆超速SUV险些相撞的视频让车主们感到,他们对“智能召唤”功能的测试“进行得不是很顺利”。另一辆特斯拉被行人拍摄到,当它试图穿过沃尔玛停车场时,坐在其他车里的人看起来很困惑。
“智能召唤”功能利用外部摄像头识别周围环境和物体,但它不能防止事故。目前还不知道为何涉事车辆没有在撞机之前停下来,也不清楚其生产时间。
特斯拉此前在司机辅助驾驶功能中使用摄像头和雷达,但最近随着“特斯拉视觉”(Tesla Vision)系统的推出,该公司开始只使用摄像头。
特斯拉视觉最初随同Model 3和Model Y发布,2021年5月之后交付的这两款车型都移除了雷达。此后,这套系统也出现在2022年2月中旬及之后交付的Model S和Model X上。
许多人猜测,安装在特斯拉汽车上的摄像头或传感器可能没有检测到飞机,因为被汽车撞到的飞机当时还在空中。虽然这尚未被证实,但可以解释为什么车辆未能识别前面如此大的物体。
有报道称,“智能召唤”功能的更新版本使车主能够从更远的地方召唤自己的汽车,并可以在更复杂的停车环境中导航。特斯拉首席执行官埃隆·马斯克(Elon Musk)称“智能召唤”是该公司“有史以来最火爆的功能”。
特斯拉杭州车祸引发争议,自动驾驶交通事故责任如何认定?
车辆只有在主驾驶位置有人并手握方向盘时才能开启自动辅助驾驶功能,如果司机坐在副驾是无法实现车辆自动驾驶的 、
配备驾驶人的智能网联汽车发生道路交通安全违法情况的,由公安机关依法对驾驶人进行处罚。在人工驾驶模式下发生交通事故造成损害的,依照法律法规关于机动车交通事故责任的规定承担赔偿责任。在自动驾驶模式下发生交通事故造成损害,属于该智能网联汽车一方责任的,由操作不当的驾驶人承担赔偿责任;驾驶人没有不当操作的,由车辆所有人、管理人承担赔偿责任。
不配备驾驶人的智能网联汽车发生道路交通违法情形的,对操作不当的乘车人进行处罚,交通事故造成损害属于智能网联汽车一方责任的,由操作不当的乘车人承担赔偿责任。没有乘车人或者乘车人没有操作不当的,依法对自动驾驶系统提供者进行处罚;由车辆所有人、管理人承担赔偿责任。
有驾驶人的智能网联汽车发生交通违法或者有责任的事故,由驾驶人承担违法和赔偿责任;完全自动驾驶的智能网联汽车,在无驾驶人期间发生交通违法或者有责任的事故,原则上由车辆所有人、管理人承担违法和赔偿责任。
杭州特斯拉SUV发生的交通事故,在责任认定过程中,司机认为当时车处于自动辅助驾驶 状态,车不是自己开的,不需要承担责任。但是实际上司机的想法是错误的,因为即使车辆开启自动辅助功能驾驶,如果发生意外事情,车内的人是需要承担责任,并不能免责。所以这起交通事故认证其实很简单,直接责任人就是司机本人。
这起事故的争论的焦点是在自动驾驶的状态下出现交通事故,责任如何划分。交通事故的起因是一辆特斯拉撞上路灯杆,司机表示汽车当时使用了自动驾驶功能,自己正坐在副驾驶位,出现问题是由于汽车的自动功能故障。但是特斯拉认为如果司机不在驾驶位,并且手不放在方向盘上是无法启动自动辅助功能的,所以认为司机是在撒谎,这起责任完全是由于司机自身原因造成得。最后这起事故责任交给交警来判定。
司机所以会这样为自己辩解,主要是他对自动驾驶的误解。我国的道路交通法对使用“辅助驾驶功能”的驾驶员做了规定,在汽车行驶过程中,驾驶员必须集中注意力,并且手不能离开方向盘。汽车在开启“辅助驾驶功能”出现交通事故的时候, 具体责任如何划分需要交管部门按照相关规定来确定。不能因为开启了这项功能而免除责任。所以在这起交通事故中,司机的说法本身就违法了交通安全法的规定,需要对这起交通事故需要负责任的。
这位男子为了逃避责任,把这起交通事故责任推给了厂家。只能说明这位男子对于特斯拉的功能并不完全了解,不明白辅助功能开启的条件。同时他能说出这样的话,也说明对交通法的规范也不清楚。如果不出意外,这位男子应该在这起交通事故中承担全责
特斯拉杭州车祸引发争议,特斯拉这么不靠谱,为什么还在有人购买呢?
因为特斯拉价格比较便宜,而且不少的人认为特斯拉发生车祸的事情概率比较小,不会发生在自己身上。
就是因为特斯拉的外观是非常好看的,很多人觉得带出去很有范儿,觉得自己是非常高尚的。
因为有的人觉得事故发生的原因不在于特斯拉,可能在于车主,而且特斯拉宣传的还不错。
特斯拉车祸引发争议,特斯拉这么不靠谱,为什么还在有人购买呢?杭州西溪湿地公园,一辆特斯拉小汽车冲破地面,撞翻了路边的路灯。事发时,司机喝过酒,但不承认自己酒后驾车。该司机宣称自身事发时坐到副驾,车子是打开全自动辅助驾驶作用后,出现了撞击安全事故。
司机的这种说法很快就被特斯拉层面辩驳。相关负责人表明,车子只会在主驾部位有些人并手握方向盘时才能打开全自动辅助驾驶作用,假如司机坐到副驾是无法实现车子自动驾驶的。但是对于这种说法,也有网友给出了怀疑。由于此前曾有网友发布测试视频,通过在主驾位置和方向盘里置放一定吊物的做法,就可“骗”过车子,打开全自动辅助驾驶作用。
安全事故全新调查结论公布,杭州交管部门的基本调查结论表明,事发时司机全过程坐到主驾上,并不是其先前宣称的“人们在副驾”。与此同时,司机血液检测表明其归属于醉酒后驾驶,目前已涉嫌危险驾驶被立案调查。
实际上,即使是司机确实身处副驾,也难以用自动驾驶“推卸责任”逃离罪刑。广东省伟然律师事务所律师张宗保剖析,现阶段,在我国智能网联汽车划分成三种类型,各是“有条件自动驾驶”“高度自动驾驶”和“彻底自动驾驶”。在这里三种类型中,“有条件自动驾驶”“高度自动驾驶”都要驾驶员在特定前提下立即接手随时待命。
现阶段,在我国合理合法出售及上道的消费性小汽车,事实上都是属于“有条件自动驾驶”和“高度自动驾驶”这两类的范畴,这时主流的法律规范是“归属于该智能网联汽车一方责任的,由驾驶员承担赔偿责任”。
特斯拉安全事故占比并不是很高美国曾经做过一项由于车的牌子所引起的交通事故的统计分析,发现在美国,特斯拉的道路交通事故占到了0.019%,可是虽然只有那么一点点的故障率,对它的报导却占到了95%的主流媒体看面。再去对比一下致死人数,2020年,美国由于特斯拉车祸死亡人数仅有8人。而因别的车子致死人数为42052人,致死人数并不是很高,但是只有5%的篇数在报导别的车子造成的车祸。
特斯拉的品牌知名度虽说中国也经常会出现由于特斯拉的产品质量问题造成的车祸,但是仍然有一部分人是坚信特斯拉的,终究特斯拉在经历了这么多年的累积前提下,所制造的新能源车辆还是有一定的市场占有率的。当顾客找不着更加好的代替品情况下,或是只能选择特斯拉。
特斯拉美国索赔案胜诉 法院裁定Autopilot未失去安全性能
易车讯 日前,我们从相关渠道获悉,针对居民Justine Hsu提出的一起2020年诉讼,声称Autopilot自动驾驶辅助系统和安全气囊的设计存在缺陷,要求获得超过300万美元的赔偿。美国洛杉矶高等法院的陪审团裁定,特斯拉Autopilot自动驾驶辅助系统的安全气囊,并未失去安全性能,且特斯拉没有故意不披露事实,因此判决特斯拉胜诉。
根据外媒报道的消息,美国洛杉矶高等法院的陪审团认为,特斯拉已经明确警告,部分自动驾驶软件并非自动驾驶系统,而事故的主要原因是因为驾驶者分心导致,因此判决特斯拉胜诉。
去年6月,美国NHTSA(国家公路交通安全管理局)展开对83万辆特斯拉汽车的调查,调查重点是Autopilot自动驾驶辅助系统的安全性。据悉,美国NHTSA当时将此次调查升级为工程分析,这是强制召回前的必要步骤。
美国NHTSA当时的调查涉及约41.6万辆Model 3和Model Y,约占总调查数量的一半,二者是特斯拉最畅销的产品,目前还没有因为上述“幻影制动”问题导致的撞车事故或人员受伤报告。
根据美国NHTSA当时公布的信息,调查涉及到的特斯拉汽车可能会在高速行驶时意外刹车,同时投诉报告显示,突然减速和刹车可能在毫无任何预警情况下出现,并且会单次驾驶时反复出现,车主担心因此出现高速追尾事故。
打开易车App,点击首页“智能化实测”,多角度了解热门新车科技亮点,获得选购智能电动车的权威参考依据。
车主上路实测特斯拉全自动驾驶撞上护栏
车主上路实测特斯拉"全自动驾驶"撞上护栏
车主上路实测特斯拉"全自动驾驶"撞上护栏,一名YouTube用户提供了首份视频证据,证明特斯拉的“全自动驾驶”套件并不像埃隆·马斯克所称的那样安全。车主上路实测特斯拉"全自动驾驶"撞上护栏。
车主上路实测特斯拉"全自动驾驶"撞上护栏1 特斯拉一直在公开测试“完全自动驾驶”(FSD Beta)并非是什么秘密,上个月马斯克还曾自豪地宣称,上线一年来,特斯拉的FSD Beta版从未发生过事故。
不过,近日一辆使用完全自动驾驶FSD Beta版的特斯拉,在转弯后撞上路边护栏的视频得到曝光, 这被认为是FSD Beta版上线后的第一起事故 。
从公布的视频看,这台特斯拉正常右转,然而转弯后路线发生了偏差, 径直撞向了用于隔离机动车道和自行车道的雪糕筒护栏 ,引得车内驾乘人员一阵惊呼,甚至爆出了粗口,司机立刻接管车辆,踩下了刹车。
好在雪糕筒为塑料材质,加上应对及时,仅仅是撞弯了其中一个,车头有点受损,其他无大碍。
车主表示, 已经将该案例上传到了特斯拉反馈部门 。
值得注意的是,此前一位特斯拉Model Y车主曾向美国国家公路交通安全管理局(NHTSA)投诉称,自己的车辆在使用FSD Beta的时候发生了事故,但截至目前这一投诉尚无法得到证实。
车主上路实测特斯拉"全自动驾驶"撞上护栏2 2月10日消息,名为AI Addit的YouTube用户提供了首份视频证据,证明特斯拉的“全自动驾驶”(FSD)套件并不像埃隆·马斯克(Elon Musk)所称的那样安全。
AI Addit的视频是在美国加州圣何塞市中心的一次驾车过程中拍摄的,首次展示了激活FSD系统的特斯拉Model 3与自行车道护栏相撞的场景,并证明FSD应该对这起交通事故负有直接责任。
在视频中,可以看到特斯拉最新版本的自动驾驶软件FSD Beta Version 10.10指示Model 3转向将自行车道与机动车道隔开的护栏。尽管司机急忙踩下刹车,并疯狂地打方向盘进行躲避,但AI驱动的车辆还是重重地撞上了护栏。
令人担忧的是,在视频中,还能看到这辆特斯拉汽车似乎因为软件原因而闯了红灯,它还试图沿着铁轨行驶,后来又试图驶入有轨电车车道。
AI Addit的驾车视频长约9分钟,撞车事件发生在大约3分半钟的时候。这位YouTube用户似乎坐在靠近方向盘的驾驶位上,后座还有一名乘客陪同。在视频中可以听到AI Addit的声音:“我们撞车了,但我已经把刹车踩到底了!”乘客回答称:“我真不敢相信这辆车竟然没有停下来。”
马斯克上个月曾声称,FSD Beta系统从未发生过事故,但新的视频提供了证据,证明事实并非如此。在AI Addit记录的视频中,可以看到司机的双手只是轻触方向盘,而不是握紧它,完全由FSD控制方向盘的运动,使汽车遵循地图上预先定义的路线行驶。
FSD是专为特斯拉汽车提供支持的先进司机辅助驾驶软件,属于L2级自动驾驶系统,这意味着该系统可以控制汽车的速度和方向,允许司机双手短暂离开方向盘,但他们必须时刻监控道路,并做好接管车辆的准备。这项技术在购车时是可选的,包括几个自动驾驶功能,但仍需要司机监督。
在发生撞车事故的前一刻,可以看到司机双手猛打方向盘,但为时已晚。虽然车辆损伤并不严重,但被完全撞倒的护栏在汽车前保险杠上留下了油漆印记。
在这段视频发布前不久,特斯拉被迫召回近5.4万辆电动轿车和SUV,因为它们的FSD软件无法识别停车标志。美国安全监管机构2月1日发布的文件显示,特斯拉已通过“空中软件更新”禁用了这一功能。此外,特斯拉在与美国国家公路交通安全管理局(NHTSA)官员举行两次会议后同意召回受影响车辆。
许多司机正帮助特斯拉测试FSD系统,它允许车辆以9公里的时速通过带有停车标志的路口。在AI Addit的测试中,该系统可能没有意识到自行车道上有一段路被封锁了。在视频的大部分内容中,Model 3似乎在检测绿色自行车道护栏时遇到了问题,这些护栏散布在圣何塞市中心,这辆车几次朝它们驶去。
这段视频似乎突出了FSD的其他不足之处。FSD还处于测试阶段,因此将在广泛推出之前进行改进。在视频中,这辆车的AI试图指示其左转进入繁忙的主路,尽管当时正有一辆卡车迎面驶来。不过FSD似乎在“耐心”等待行人过马路和避开其他车辆方面做得很好。
2021年年底,特斯拉表示,有近6万名车主参加了FSD Beta计划。该计划只适用于该公司特别挑选的.特斯拉车主,以及安全得分高达100分(满分100分)的司机。然而,一位投资者去年10月透露,他的安全得分只有37分,但他被允许使用FSD Beta。
这些安全得分是由司机驾车时的行为决定的,司机允许特斯拉使用车载软件监控他们的驾驶过程。特斯拉警告说,任何使用L2级自动驾驶系统的司机必须随时准备介入干预。
FSD是特斯拉司机辅助驾驶系统Autopilot的升级版,后者曾引发多起致命事故。到目前为止,已经核实了12起涉及Autopilot的死亡事故,以及一系列非致命的撞车事故。
尽管马斯克在1月份断言FSD Beta的安全记录无懈可击,但NHTSA在2021年11月收到了第一起投诉,称FSD导致一名特斯拉司机撞车。这起事故发生在加州布雷亚,当时一辆激活FSD软件的特斯拉Model Y驶入错误车道,并被另一辆车撞上。
无独有偶,最新公布的监控视频显示,2021年8月,激活Autopilot的特斯拉Model Y撞上了停在美国64号高速公路旁州际公路巡逻队的警车,导致警车失控翻滚并撞上了站在路边的副警长。随后,这辆车侧扫指示牌,最终滚下山坡撞到树上。 据称,这辆特斯拉汽车的司机是德文德·戈利(Devainder Goli)医生,他在汽车处于自动驾驶状态时正在手机上看电影。
自动驾驶汽车专家萨姆·阿布萨米德(Sam Abuelsamid)表示:“这些系统都不是自动驾驶系统,而是司机辅助系统。所有系统都是为司机观察道路而设计的,随时都要保持专注。事实上,在特斯拉的系统中,司机的手也应该总是放在方向盘上。制造商可能经常夸大系统能做什么,而不会谈论它们不能做的事情。”
车主上路实测特斯拉"全自动驾驶"撞上护栏3 1月18日,特斯拉CEO埃隆·马斯克声称FSD(完全自动驾驶)测试版推出使用以后,就没有出过错。在此前一日,特斯拉的一名股东Ross Gerber在twitter上称,在FSD发布后的一年多里从未出过车祸意外或有人受伤,而同期美国则有20000人死于交通意外。马斯克转发了这条推特,并确定的说:“没错”。
而在早前两日,马斯克的这一确定性答案受到了质疑,一位叫 AI Addict的视频博主分享了段其体验FSD功能的影片,影片拍于加州一个只有100多万人口的圣何塞。按视频的说明,博主已经更新到今年1月5日所推送的 FSD Beta v10.10(2021.44.30.15)版本。视频当中车辆在FSD的控制下大部分情况表现优秀,但当行驶到一段右转道路后,视频到了3分30秒的时候,车辆右转后没有正确识别出道路边上的防撞柱,毫不犹豫的撞了上去,车内的人也立即被吓到,还好驾驶者一直都有注意路况,也把手一直放在方向盘上发生事故时立即介入,才没有造成更大的车祸事故。
当然,特斯拉在网页和FSD功能说明当中一直提醒完全自动驾驶的用户:FSD处于早期测试阶段,使用时必须更加谨慎。它可能会在错误的时间做出错误的决策,所以必须始终保持双手在方向盘上,并额外注意道路状况。驾驶者需要持续关注道路,并准备好立即采取行动,特别是在盲区、十字路口和狭窄道路的驾驶时。现在看来,这种提醒还是很有必要。
特斯拉 FSD Beta 的安全性一直以来也受到一些质疑,在不同的版本当中会出现不同的问题。比如在早前的9.0版本当中,转变后没有识别出路边的树木,没有识别出公交车道,没有识别出单行道,转弯后直接开到了停车位上行驶等一系列的问题。
除此以外,外界的批评也包括特斯拉把还没有完成开发的功能直接交付给消费者使用,让人们在实际的行驶道路上使用这一系统不负责任。
特斯拉的自动驾驶系统,通过摄像头对外界物体进行识别并做出反应。正常的情况下可以识别路边的障碍物,雪糕筒,特殊车道的标识以及停车标志,目前仅开放给美国的车主付费使用。
FSD Beta 自2020年9月底正式对外发布使用,对此感兴趣的车主可以在手机当中申请使用,而特斯拉则会根据车主近期的驾驶评分决定是否开通此功能,而事实上,大部分的车主都可以使用上这一功能。特斯拉则会在驾驶过程当中监控、搜集行车数据调整升级优化系统,这也是FSD快速提供升级包的原因。自动驾驶业内,普遍认为激光雷达配合高精度地图才是自动驾驶的解决方案,而特斯拉则反其道而行,完全抛弃激光雷达选择了相信当下摄像头所看到的东西,视频已上传三天,特斯拉没有解释事故是否确实因FSD没有识别出路边的那一排绿色隔离柱而导致。
2021年2月1日,美国国家公路交通安全管理局(NHTSA)要求特斯拉召回5.3万辆电动汽车,原因是这些车辆当中带有的“滚动停车”(rolling stops)功能与法律冲突,这一功能允许特斯拉以每小时5.6英里的速度通过有双向停车标志的车字路口。而美国的交规则要求,这一标志与红灯接近,当路口有这一标志的时候,即便周围没车没人,也必须在路口白线前停下3秒后确认路口的情况下才能继续行驶。而特斯拉的软件则引导车辆低速通过因此被召回。
马斯克随后解释此功能不存在任何安全问题。他称:”汽车只是减速到大约2英里(3.2 公里),如果视野清晰,没有汽车或行人,就继续向前行驶。“
一月中马斯克才刚称赞完 FSD Beta 自一年前计划开始到现在,“从未”发生过任何错误,但最近这一车主的实测影片可是把马斯克的脸打的肿肿的,因为FSD Beta 的错误判断,车辆直接撞上路边的防撞柱。当然,这个事故也算不上严重,毕竟车辆没有受到严重的损坏也没有人员受伤,不知道这是否包含在马斯克此前的”意外“范围之内。
美国NHTSA也提醒:“到目前为止,还没有任何一台市售车型可以实现自动驾驶,每辆车都需要司机操控。虽然先进的辅助驾驶功能可以协助司机避免碰撞或是遭遇交通事故,但司机还是必须随时留意驾驶状况与路况。”
特斯拉或因自动驾驶系统面临刑事指控,事件后续可能如何进展?
事件后续的发展,美国司法部会对特斯拉进行更严格的审查,这次指控可能会导致特斯拉公司个别高管遭到刑事指控,甚至丢到工作。
华盛顿和旧金山的司法部检察官正在审查特斯拉,看特斯拉是否对这个自动驾驶技术进行了没有事实根据的宣传,来误导消费者。
一,这件事是怎么回事。
根据美国新闻媒体的报道,特斯拉在美国目前面临着刑事案调查,因为特斯拉在产品的描述方面与实际驾驶体验不同。
特斯拉在过去几年发生了一些撞车事故,有些还造成了死亡,这些事故与特斯拉驾驶员辅助系统 Autopilot分不开关系,针对这些事故,去年美国司法部已经展开调查,暂时没有披露结果,最早在 2016 年时特斯拉就在营销资料中鼓吹 Aupopilot 的能力,在当年的一次电话会议中,马斯克宣称 Autopilot 可能比人类驾驶员还要好,并且非常有信心的说:“有人坐在驾驶位上只是出于法律原因坐在那里,他不需要做任何事,汽车可以自已驾驶。”
二,马斯克实在太过于张扬了。
特斯拉是一家很棒的企业,没错,但马斯克实在太过于高调了,这样大肆宣传自己的驾驶辅助技术,也难怪消费者把他告上法庭,说他虚假宣传,除了宣传自家驾驶辅助系统,马斯克最近还高调收购了推特,真是在任何版面都能看到马斯克的身影。
但是牛皮如果吹太大也很难圆,尽管马斯克如此称赞自动驾驶,但特斯拉公司却警告驾驶员,说他们必须将手放在方向盘上,使用 Autopilot 时必须自已控制好汽车。特斯拉宣称 Autopilot 的设计初衷是辅助驾驶,并不是为了让汽车自己行驶。
事件后续可能对自动驾驶功能方面做很大的提升,以及像一些安全隐患问题做出很大的改动。
我觉得特斯拉一定会受到非常严厉的处罚,而且特别影响他们的形象和口碑,他们的销售量也一定会下降的。
世界的后续发展我们尚且不能预知,但是他自己的产品出现问题肯定是需要负很大责任。
特斯拉或因自动驾驶系统面临刑事指控,事件后续可能还是会按照赔偿的方式进行。
一、特斯拉或因自动驾驶系统面临刑事指控
按照目前美国媒体报道的消息,社交之王马斯克旗下的特斯拉公司正在面临着刑事指控,由于特斯拉汽车的自动驾驶系统使用已经导致了多起交通事故以及多人死亡,目前美国已经有法院准备对其提起刑事指控。这种消息对于目前的市场刺激十足,不少的人更愿意将之解读为目前的新能源汽车行业出现了问题,然而实际上却有可能真只是特斯拉本身的问题,其他公司不会受到任何影响。
二、事情后续发展:赔钱之后不了了之
按照目前美国媒体报道的消息来看,就算是特斯拉的自动驾驶系统真有问题并且已经导致消费者在使用过程中受损,但是主观上还真的很难去界定该企业就具备犯罪的故意,毕竟特斯拉公司对于自己的系统只能称之为辅助驾驶系统,而且相关的消费者告知也是明确表示不能随意使用辅助驾驶系统。在特斯拉汽车没有大规模出现问题的时候,自然也就会由刑事指控变成民事侵权索赔,最后只能赔钱了事。
三、目前特斯拉的发展不仅仅是行业的问题
特斯拉遭受自动驾驶非议也是理所当然的,毕竟特斯拉本身就是一家做新能源加自动驾驶业务的公司,要不是当初在宣发的时候对自己的自动驾驶颇多宣传以及辅助驾驶系统确实也是很好用,估计也不会获得投资者青睐以及消费者喜爱。特斯拉的发展就像大多数企业的起步一样,有噱头、有争议,但是又不可避免,所以这也许不是特斯拉以及电动汽车行业出现的问题而已,而是大多数企业目前都会有这样的发展困境。
国内一特斯拉“自动驾驶”时突然失控,撞树后气囊未弹,官方对此有何表示?
近期国内又发生了一起事故--特斯拉失控。 在开启“自动辅助驾驶”的状态下突然失控,冲向中央隔离草坪并最终撞树。同时,全车没有一个安全气囊打开,导致车主受伤。车主反馈后,却得到技术主管的回复是:因为没有撞击到触发点,所以气囊没有弹出,但车辆并无异常。
特斯拉售后回复:分析相应数据没发现异常,安全气囊未弹出系没撞对位置
官方称这是没有撞击到安全气囊的触发点,可以看到车子已经撞得面目全非了,官方还想推卸责任。明明是设计的问题。
官方表示这是由于驾驶环境太过复杂,因此人工智能系统没有做出正确的判断,所以发生了此次事故,而气囊则是由于车辆太好并未达到弹出条件,属正常现象。
国内一特斯拉自动驾驶时突然失控,撞树后气囊未弹开,官方的回应未撞击到触发点,所以才导致的气囊没有弹出,车辆其他地方并无异常,而且车辆发生偏移竟然是因为方向盘施加七N多的力。特斯拉的车在国内也算是一个比较知名的品牌,而自动驾驶的话在最近几年也是比较流行的,不过有些品牌的自动驾驶技术确实不怎么成熟,无在日常行驶过程当中奉劝大家还是手动驾驶,因为现在自动驾驶出现的事故还是比较多的,就在3月25日的时候,在国内就发生了一起特斯拉失控的事故,据说车主以52km每小时的数据在路上行驶的过程当中,同时开启了自动辅助驾驶功能,但是车辆撞到树之后才停下来,这个过程当中竟然安全气囊没有弹开,而且方向盘竟然卡死。特斯拉自动驾驶时突然失控,官方回应称是由于没有撞击到触发点。据现场的情况我们可以看到这辆车已经被撞得面目全非,但是我们完全可以知道是车辆的正前方撞到了树才使得其停下来,可是根据官方的回应没有触发点可以说只是糊弄人,同时也可以看出特斯拉汽车质量和技术令人堪忧,因为车头已经撞得十分严重,但是气囊就是弹不出来,再加上方向盘锁死,导致无法改变前进的方向,最终酿成了惨剧。特斯拉自动驾驶突然失控,安全气囊没有弹出,可能是技术问题导致的。特斯拉里面有一个功能,那就是自动辅助驾驶功能,它可以自动调整车辆在规定的范围内行使,如果偏离道路的话,他也可以主动调整方向盘,使得汽车驶入正轨,可能是由于某些技术的原因导致方向盘锁死,酿成了最终的后果。关于特斯拉的质量和技术,你觉得可靠嘛。
有无人自动驾驶技术的汽车安全可靠吗?
2016 年 5 月底,一名欧洲特斯拉车主在高速上追尾一辆大货车,此外,在美国,一辆特斯拉撞上了停靠着的拖车,一辆则是在 5 号州际公路上撞上行驶中的车辆。这些事故都发生在 Autopilot 开启的状态下2016 年 5 月 7 日,来自美国俄亥俄州的 40 岁男子 驾驶 Autopilot 自动驾驶模式处于开启状态下的Model S 到一个十字路口时,与一辆大型拖车发生意外碰撞事故后死亡。这些关于特斯拉自动驾驶出事故的新闻大家都略有耳闻,至此自动驾驶的安全性让大家津津乐道。
就当下来看我认为无人驾驶技术并不可靠,但无人驾驶的未来的发展必定是大势所趋。无人驾驶汽车是未来科技发展的一个大趋势,这个趋势将越来越明显。就目前来说,控制技术、传感器技术、图像识别技术等方面还有很多不足还能有很多改进。不管是特斯拉常规雷达、超声波雷达和单眼摄像头,以及强大的芯片运算能力加上高精度的地图的使用。还是华为推出的激光雷达,针对复杂的路况以及多变的天气,这些传感器也没有百分百的准确性。
一、车辆安装传感器探测范围有限
这里说的有限不是指距离,而是指高度。就特斯拉来说,他的探测器基本都安装在车辆的底部,对比大卡车较高的底盘,突然冲出的卡车车身很有可能并没有进入传感器和雷达的探测范围,从而发生碰撞。
二、算法的出错
虽然无人驾驶有大量的模拟道路行驶以及强大的AI智能算法的加持,但是之前的好几起事故经过有关人士的分析可以初步判定,在好几起关于特斯拉的事故中都是刹车系统没有正常工作。至于是人为问题,还是系统问题,很明显,根据数据分析,基本驾驶员踩刹车以后,没有发现连续踩踏信号,而车辆电控系统和辅助驾驶接管了刹车系统之后并没有及时刹车。
但是我始终相信无人驾驶是未来的趋势,人驾驶车辆也会有事故发生,而且有的事故还是由于酒后驾驶或者疲劳驾驶引起的,这些其实可以避免,将来无人驾驶技术成熟后,这也能减少不必要的交通事故。
我认为是可靠的,现在无人自动驾驶技术也比较成熟,很多新款汽车现在都有自动驾驶功能,这样这给人们带来了很大的便利,在驾驶员疲劳驾驶的时候,可以起到很关键的作用。
我认为可靠,因为我国的科技实力是很强的,而且我国也有很多优秀的科学家,所以我认为无人自动驾驶技术的汽车安全可靠。
不安全可靠。现在的无人驾驶技术一点都不先进,有待于进步。