明智的驾驶“失控”,这是我经历的激动人心的
栏目:行业新闻 发布时间:2025-04-03 09:40
2016年5月7日,美国佛罗里达州的一次车祸引起了人们的关注。 在一个小镇的交汇处,特斯拉型号S以高速行驶,直接按向左旋转的大型白色集装箱卡车。 S型从集装箱卡车的底部穿透后,它继续开车,撞到围栏和电话杆,最后停在30米高的地方。 特斯拉拥有该地区。在特斯拉的说法中,里佐(Rizhao)当时很强大。处于“自动驾驶”状态的Model S尚未确定白色卡车容器,因此它不会按时制动,导致事故。 事故引起了全球自动化行业的注意,因为它是世界上第一次使用自动驾驶功能死亡的车祸。 自主驾驶会降低道路事故率还是承担更多风险?讨论继续。一些观点认为,事故是由于技术不足引起的。 当时,特斯拉的“自动驾驶”功能n是“仍在公共舞台上”。事故加速了特斯拉之间的裂痕,然后为自动驾驶Mobileye提供了资助。五个月后,特斯拉宣布将包括实现完整的自动驾驶(FSD)的包括。 到2024年3月,Tesla FSD V12的版本将使用端到端的神经网络算法正式推出和推动。它还加速了国内驾驶技术的重复和竞争。 智能驾驶能力已成为当前汽车制造商竞争的主要战场。在加速技术随着Byd,Xiaopeng和Huawei等领先的国内公司的降低,AOF市场竞争变得更加激烈。 2025年被称为“所有人的明智驾驶第一年”。明智的驾驶技术正在以非常快速的速度出现,但是当大量智能驾驶汽车倒入市场并在道路上骑行时,就开始出现更多的隐藏问题。 在3月之夜CH 29,一条没有实用性的小米SU7在重定向的高速公路上以每小时116公里的速度驱动。汽车看到障碍物后,它释放了一个提醒并放慢了速度。驾驶员在乘车后2秒钟与皮带相撞。事故驱使三个女孩在车上死亡。 4月1日晚上,小米汽车和Lei Jun公司的创始人发言,Lei Jun承诺会尽力应对他的家人和社会的问题。 这次事故对行业来说听起来令人震惊。尽管Zhijia在中国取得了巨大的发展,但有关Zhijia的安全,营销和宣传维修,支持用户教育以及汽车公司在事故中的责任的含义的讨论也被放在桌面上。 1。感觉的一刻 在过去的两年中,智能驾驶没有高端豪华车的独家标签。就像手机一样,可以加快普通百姓的生活。 variouS的经历使许多人叹了口气,叹了口气。 在2024年上半年,中国L2乘客的渗透率和自主神经次数高达55.7%。专家预计,这一数字将接近65%至2025年。 但是,在配备有明智的量表扩大规模的范围的Pursuitwith模型中,有关驾驶员的明智驾驶员的许多问题已经出现。这些问题不像在手机有错误时重新启动。驾驶过程中智能驾驶系统失去控制的任何损失都可能是威胁生命的。小米SU7的高速事故也使许多用户记得他们经历的糟糕时刻。 Zhihua,高速公路,深夜,撞到了护栏。今年1月,来自匈奴的Bai先生发现了一个与小米Auto Su7相似的事故现场。 当时,Bai先生只选择了一个“新力量”品牌的汽车超过两个月。让他的堂兄体验明智的“黑色技术”开车,他要求Forhis Cousin开车并亲自获得堂兄。 在高速NOA上打开高速NOA后,汽车以90 km/h的速度行驶,在接近坡道之前,汽车的速度高达120 km/h。同时,驾驶的汽车直接被选为通过最高车道(而不是紧急车道)。出乎意料的是,这条线稍后改变了方向,并没有笔直,而是从高速公路上转向坡道。 当他进入坡道时,Zhijia承认他已经偏离了方向,并自动打电话给左派试图返回主要道路。但是,由于车辆的速度,它撞到了皮带分离的护栏,从而损害了车辆的挡泥板和轮毂。 “车辆几乎被摧毁了,人们被杀死。在车辆突然从方向盘上转动后,我强迫自己握住方向盘并保留了Balancecontrol。”拜回忆起。 从一些汽车拥有的评论来看,“爱对l划分错误的方式是一个常见的问题。购买了同一家品牌SUV的楚先生发现高速公路上的zhijia通道发生了不断的变化。车辆几乎失去控制并撞到了护栏。 明智的驾驶员事故发生后,来自安海(Anhui)的丁先生从不敢于自动操作这条线的自动操作。今年1月,他打开了NZP智能驾驶,并走到高速公路左侧的快速线。在旅途中,我发现了道路上的建筑,并将栏杆和一排红色塑料带放在线上。 前面的白色汽车识别出障碍物,并通过正常车道在中间车道上改变。但是,丁先生的明智驾驶经历了“停机时间”。他没有意识到这些障碍,也没有释放出线的变化,缓慢,制动甚至加速。结果,汽车撞到了栏杆和前带。 丁先生回忆说当时没有发生E自动制动AEB汽车和紧急车道,而车辆通过踩刹车阻止了他。丁先生说:“如果没有,它可能会继续撞击。” 事故发生后,丁先生一再拖着汽车公司很长时间,但他没有得到汽车公司的任何赔偿。丁说:“技术人员要求我检查NZP在开车前是否正常工作。现在我将无法控制线路的自动变更。” 2。聪明的驾驶,应成为守门公司的公司,将第一步称为第一步 尽管发生了越来越明智的驾驶事故,但一些声音说:用户“应该降低对智能驾驶的期望”,并谨慎使用智能驾驶功能。实际上,汽车公司称呼智能驾驶的门槛。 在新闻发布会上,汽车高管投掷了黄金句子并显示了数据,并强调“有0个明智的驾驶超过1,000公里的接管”d "AEB operating is at a steady stop of the brakes at 100km/h", "cover 357 complex situations including waterways and waterways and intersections, with rampa rates of water ramps and intersections, with rampa rates of water ramps, with rampa rates of waterway and intersections, with rampa rates of water ramps and intersections, with rampa rates at ramps at ramps, with坡道和坡道,坡道经过99%的坡道,“大脑的生物粒子结构,AI模型的不同AI模型指南,并提高了0.1秒响应的速度 今年建设开始后不久,王元乘新车。要购买具有强大驾驶能力和有效性的汽车,他尝试了所有特斯拉,理想,Zekr,小米等。每个公司都有一套用于智能驾驶的系统条款。在销售条款中,WANG Yuan选择了一种新的入门级模型。 “销售告诉我们,我们家中的NOA模仿了人类的驾驶逻辑,比有图片的人更灵活。驾驶能力行业的负责人。” 在家里的100公里的走廊上,王元开始了他的全职明智驾驶。她将来的适当表现使她恢复了她的手表。结果,在汽车继续达到高速之后,突然又链接了两条线。中间没有提醒。它从左侧变为右车道,保持超过90公里的速度,并且没有显示出放慢速度的迹象。方向继续偏离。车辆几乎失去控制,撞到右边的篱笆。王元说:“我很害怕,以至于我立即抓住了方向盘,然后立即转身回到商店寻找销售,当我离开高速公路时。” 但是,销售人员提出了驾驶员不习惯的论点控制智能驾驶。如果他真的记得,他可以将Kotse留给商店进行测试,并在乘汽车之前预防车辆一周。 “没有办法把汽车拿回去,所以我只能开车一周。” 在汽车公司的营销中,更多的“顶级示范”,但实际上是“低安装的交付”。许多汽车公司将基本的L2级功能打包为“高端智能驾驶”,这会欺骗消费者。尽管比亚德的“上帝之眼”宣布,整个系列是在一段时间以前在高级智能驾驶中启动的,但由于其含义不清楚,因此被问到了外界。 王元后来对聪明的汽车驾驶能力造成了信任危机。更重要的是,汽车公司很快开始续签和升级,整个系列都配备了Palidar。这让他后悔。如果他以后购买汽车并购买了LiDAR模型,那么他的聪明驾驶能力可能会得到更多保证。 现在,国内汽车公司主要分为智能驾驶领域的两条技术路线。例如,华为的汽车代表性汽车公司使用多传感器融合(带LIDAR),而特斯拉代表的汽车公司将主张纯粹的愿景。明智的驾驶员解决方案仅取决于相机和算法,并且成本低,但受环境的限制。在相机的基础上,LIDAR配备了LiDAR,雷达波雷达等。这是非常准确但昂贵的。 不同汽车公司的不同主要途径也显示了差异技术路线。结合LIDAR和视觉解决方案可能会使识别多雨和下雪天气的障碍的准确性。 但是,在技术变化迅速并且成本压力很高的当前竞争环境中,即使是汽车公司采用了任何技术途径,当前的智能驾驶功能仍然是帮助L2-L3的水平,并且没有达到真正的自主驾驶水平。因此,汽车公司需要澄清技术界限。 你能期望明智吗?汽车公司需要是一个良好的第一级。 除了在“营销重点”之后,除了持续的技术突破并开发更安全,更负责任的逆转外,尤其是在用户拿到汽车之后,还应注意服务,以提供基本的智能智慧和培训教育,以降低因业务不良而引起的事故风险。 3.用户,重新理解明智的驾驶 在划分智能驾驶事故的责任方面总是有许多争议。主要争议是驾驶员,汽车公司,技术供应商和其他政党的责任尚不清楚。 例如,当车辆采用L2和L3等辅助驾驶模式时,驾驶员仍然需要保持注意力以随时占用车辆。目前,如果驾驶员分心并且DOE不会随时间失败,责任可能归因于驾驶员。 但是,如果车辆由于技术缺陷而没有按时警告,甚至没有发出预警,则公司应承担多少责任?在小米SU7事故中,许多网民认为,驾驶员已提示在碰撞发生前需要两到三秒钟。警告时间太短,汽车公司需要对此负责。 值得注意的是,在当前的许多驾驶事故中,提供的技术杯是事故发生前从智能驾驶中退缩的车辆,网民开玩笑说:“幸运的是,及时撤离。即使发生了一些事情,明智的驾驶系统仍然完好无损。” 由于技术进步,法律滞后,个人行为和系统可靠性之间的冲突,这一争议在短期内可能很难结束。但是从实际操作的角度来看,当前的法律和系统Surance通常要求驾驶员成为Appetitep或主要负责事故,并且驾驶员应该有安全驾驶的感觉。 因为不同汽车公司采用的智能驾驶解决方案是不同的,因此盲目相信智能驾驶通常会导致事故。在使用智能驾驶的两个多月之内,拜先生逐渐意识到自己的行为 - 他想在高速公路上行走时靠在右车道上。因此,拜先生自己开车,不小心要求汽车在左快速线上行走。但是他的堂兄当天推了,因为他不熟悉这辆车,也没有探讨。 事故发生前,车辆有机会从虚线进入中间车道,但是那段时间堵塞了一辆汽车,通道失败了。后来,所有都是实线,并且车辆没有自动改变线路,导致突然转弯和碰撞。 “将来,没有人能让OtheRS用途有助于开车。”拜先生说。 尽管驾驶员适合他的汽车的明智驾驶计划,但他仍然需要集中精力在复杂的道路状况和恶劣的天气状况下。但是,在促进时,汽车公司经常展示具有完美工作条件的操作,而忽略了实际道路状况的复杂性和变化,这很容易使用户成为“整个场景”的幻想。 丁先生为自己的迷信付出了代价,这是明智驾驶的“整个场景”。事故发生后,在拔河巨星kincluding汽车公司中,客户服务的解释表明,在面对锥桶,水马,建筑标志等时,NZP可能会失败。而且他没有注意到NZP对此用途有限制。 客户服务发送给丁先生的说明 “有很多东西不认可Zable。现在,我必须将其用作线条以自动保持并跟随汽车。在其他情况下,它需要不断查看。”丁先生说。 类似于丁先生遇到的建筑部分,坡道,夜晚,恶劣天气和其他场景都是明智的驾驶预测的缺点,并且他们的理解能力是有限的。许多事故与驾驶员在明智的驾驶决策方面的伟大性密切相关。 在第2024条的“自主驾驶案件和手法驾驶事故的比较”中,它表明,在黎明,黄昏或转弯条件下,涉及先进驾驶系统的事故的可能性高于人造事故,55持续。这可能是由于自动驾驶汽车使用的传感器和摄像机无法快速适应照明条件的变化,这可能会影响其检测障碍物,行人和其他车辆的能力。 贝先生认为,明智的驾驶有其OWn边界和麻省理工学院可以缓解远距离距离和高速时的疲劳,但“帮助≠替代”,明智的驾驶不是自主驾驶。 “人们不要让聪明的驾驶员适应人们,而是应该适应明智的驾驶员。我们首先必须了解明智的驾驶员的习惯,安全和便利。我们不能太依赖他们。救赎仍然应该掌握在我们自己的手中。”拜先生说。 此外,为自己保留安全性和冗余也是驾驶员的强迫课程。例如,要熟悉机械门的位置,以避免由于碰撞而无法打开的门;或准备碎窗锤,以便汽车中的乘客可以逃脱,等等。 Zhijia最初想为汽车公司和用户打出双赢的情况,但是如果一方提高宣传,而另一方则盲目相信这可能是损失。 (应访调员的要求,本文中的所有字符都是假名。)
服务热线
400-123-4567