您现在的位置是: 首页 > 购车指导 购车指导

特斯拉自动驾驶 车祸_特斯拉自动驾驶事故率对比

tamoadmin 2024-07-11 人已围观

简介1.特斯拉的自动驾驶功能怎么样,是不是足够安全?2.特斯拉车性能怎么样?3.特斯拉自动驾驶为何事故频发?特斯拉开启甩锅模式4.特斯拉自动驾驶已致超过50人死亡,到底该不该继续下去?5.特斯拉的“完全自动驾驶”到底靠不靠谱?6.特斯拉自动驾驶经常会发生意外事故,究竟是因为什么?7.特斯拉自动驾驶为何事故频发?11月18日深圳,一辆蓝色?特斯拉Model?S突然加速,撞开了一辆出租车,然后继续加速撞上

1.特斯拉的自动驾驶功能怎么样,是不是足够安全?

2.特斯拉车性能怎么样?

3.特斯拉自动驾驶为何事故频发?特斯拉开启甩锅模式

4.特斯拉自动驾驶已致超过50人死亡,到底该不该继续下去?

5.特斯拉的“完全自动驾驶”到底靠不靠谱?

6.特斯拉自动驾驶经常会发生意外事故,究竟是因为什么?

7.特斯拉自动驾驶为何事故频发?

特斯拉自动驾驶 车祸_特斯拉自动驾驶事故率对比

11月18日深圳,一辆蓝色?特斯拉Model?S突然加速,撞开了一辆出租车,然后继续加速撞上了一辆货车尾部。

这辆车的行驶状态比较特别,先是很低的速度在蠕行,随后迅速加速,而且第一次撞车之后依然没有减速。

这种操作是比较违背常规的,而且全程车辆的主动安全系统也没有介入。车主宣称是车辆失灵,特斯拉则声明是车主驾驶不当导致,双方未能达成一致。

实际上这远不是特斯拉在国内的第一起“失控”事件,随着Model?3去年年底正式国产,到疫情之后迅速大卖。

特斯拉近半年内,已经发生了足足9起疑似“失控”案件。司机均宣称是车辆突然失去控制,特斯拉则表示是车主操作不当,到底谁在说谎呢?

(1)事故频频,永远没有结论的罗生门

从5月21日杭州赵女士在地下车库遭遇第一起“失控”事件开始,特斯拉几乎每隔一段时间就会出现一次“失控”事件。基本都是突然加速,最严重的一次是四川南充的一名用户,在富民街西门市场上车辆突然失控,造成2死6伤。

目前反响比较大的有9起事件,除12月12日北京那一起事件,未公布车主具体信息之外。其余8位车主刚好是4男4女,可见也并不是说都是女司机,错把油门当刹车,或者刹车当油门。

特斯拉的回复也比较千篇一律,比如此次深圳的“失控”事件,特斯拉的回复就是,根据它们的后台数据显示,在车辆加速到发生第二次碰撞,期间驾驶人一直深踩加速踏板,而没有踩刹车,因此车辆才会一直加速。

包括之前南昌的一位车主陈先生也是,车辆超高速行驶8km,然后撞土堆烧毁。特斯拉的回复是后台数据显示,司机一直在踩加速踏板,没有踩刹车。

特斯拉的所有回复都是基于后台数据,目前没有任何证据显示,后台数据是刹车时,车辆突然加速。虽然车主们并不认可,但也无可奈何。

这让功夫汽车想起来当年的高考,确实经常有一些学习本来相当不错的学生,最终考试成绩却是灾难性的。有的确实是发挥失常,有的坚信一定是批阅出现了问题。于是这部分学生就会去做一件事,查分。

那时候的查分是什么样的呢?考生和家长是看不到试卷的,如果要求查分,就会调出你这一门的试卷分数,然后把每一题的分数用计算机加一遍。因为之前本身就是计算机加的,出错的概念趋近于零,因此大部分考生和家长都是失望而归。但纵使如此,每年都还是有爆出来,确实有计算机因为种种原因“加错”的现象。

特斯拉的所谓后台数据其实也是如此,和计算机做加法一样,自然出现错误的概率极低。后台显示加速,车辆当然加速了,至于司机到底有没有踩刹车,这本身就是一个“罗生门”,司机不可能说的清楚,也根本无从证实。

(2)问题频出,控制方式是关键

普通燃油车型刹车,是通过发动机运行,驱动真空泵产生真空。踩下刹车踏板之后,通过真空助力实现刹车。而电动车多采用电子助力刹车,特斯拉也不例外。就是根据踩下刹车踏板的行程大小,电机驱动制动钳夹制动盘来实现制动。

这两者本身并没有什么高下之分,但在控制实现上略有差别,而特斯拉最大的特点是,它的刹车控制与其他电动车也不一样。

特斯拉的制动系统完全是由软件控制,电控运行的,它的全部工作信号,是来源于刹车踏板上的信号传感器。然后特斯拉所有系统的软硬件控制都是一体的,并最终通过总线通讯控制。而且特斯拉的系统内部,传感器和执行器之间,极少采用硬线连接,全部通过总线控制,这一点是很可怕的。

它的优势在于,系统高度集成,极大地降低了布置难度和成本,只要总控制器的系统足够强大,理论上它的控制精度会更高,响应会更快。

缺点就是缺乏后备处理机制,一些都依赖于总控制系统的稳定性和传感器的可靠性。比如普通燃油车,感觉刹车不太好用了,保养一下,或者拆开看一下,是哪个部分出现了问题,它不会一下子就失效。大多数情况会先变得不好用,再失效,并且失效后不会自动恢复。

而特斯拉的刹车失效可能就是一个瞬间,或者一个信号识别不准,它的加速信号也是一样的机理。这个概率极小,但造成的后果可能就是万劫不复的。

事实上,在特斯拉的问题频频爆出之后,已经有大量车主反馈自己也遭遇过类似问题。比如明明挂了R挡,车辆却偏偏往前窜。但这种一般是超低速状态,没有造成严重后果,而且可能系统瞬间就自我修正了。再比如高速的时候,踩刹车没有反应,重启了一下系统就好了,好在有惊无险。

这种情况很难确定到底是哪里的问题,它和传统的机械故障不一样,甚至都不可能复现,维权更是无从谈起,只能说大家开车的时候多多注意了。

(3)自动驾驶变自动辅助驾驶,背后的逻辑是什么?

除了频出的“失控”事件外,特斯拉的另一块心病,恐怕是由于车主采用自动驾驶功能所出现的问题。特斯拉刚刚进入中国时,“Autopilot”的中文翻译是“自动驾驶”,后面因为问题频出,又自己改成了“自动辅助驾驶”。

因为它自己也知道,自己的辅助驾驶技术,仍处在Level?2级别,离真正的自动驾驶还比较远。

比如前不久一辆特斯拉轿车,在高速上撞上了一辆货车。车主的解释是,看四下无人,而且路况良好,就打开自动驾驶功能开起了小差。没曾想突然窜出来一辆大货车,他以为主动刹车功能会触发,没想到并没有,等到自己猛踩刹车,已经为时已晚,还是撞上了。

这个问题小车的责任其实并不算大,但自动驾驶模式为什么没能主动刹车,就值得探究一下了。主要是由于当时的环境决定的,当时天气比较好,阳光很刺眼,再加上货车本身也是白色的,可能导致系统没能及时识别,从而产生误判。

而关于特斯拉启动自动驾驶时,撞上消防车,撞上清扫车,撞上环卫车,或者撞上路边警车的新闻也频出无穷。这些案例单独拿出来本不值一提,但集中到一起,就指向一点。特斯拉的自动驾驶技术,对于静止或者低速运动的车辆,识别能力不足,这是由它的控制逻辑决定的。

事实上目前的半自动驾驶辅助技术,确实能在一定程度上解放驾驶人,但同时也非常容易诱发事故。

因此特斯拉官方一直在强调,使用Autopilot功能时仍然要注意路面和方向盘,它只能辅助驾驶,并不是自动驾驶。但是销售和拥垒们,却一直在吹嘘特斯拉的自动驾驶可以完全“不用管”。

(4)功夫拍案

任何技术都会有一个成熟的过程,比如早期的双离合变速箱,原理上讲应该换挡更快,传递效率更高。但实际用起来顿挫到令人害怕,并且极容易坏。

当累积了足够多的用户数据之后,现在新一代的双离合变速箱,确实已经算是比较好用了。虽然还时有顿挫,但多数时候还是很顺滑,响应很快的。但对第一批车主来说,可能就不知不觉当了小白鼠。

特斯拉在设计上确实有一些较为激进的理念,对或者错目前很难判断,也许它累积足够多的用户数据之后,会越来越完善。但前期尝鲜的用户们,一定要多加注意和小心。

毕竟系统的一点点小小的误差,对用户家庭来说可能就是万劫不复。

本文来源于汽车之家车家号作者,不代表汽车之家的观点立场。

特斯拉的自动驾驶功能怎么样,是不是足够安全?

还年年倒数第一

作者|王磊

特斯拉最引以为傲的技术,其实前十都进不去。

来自Guidehouse的全球自动驾驶公司最新榜单出炉了,在16家自动驾驶公司榜单中,特斯拉排名第16,也就是倒数第一

Guidehouse是世界领先的公共及商业咨询公司,每年会都对全球自动驾驶公司的竞争力,进行排名打分。

来源:Guidehouse

这也是特斯第三次垫底榜单,其综合得分只有28,和排名第一的Mobileye(83.4)相差甚远,甚至还不如国内初创企业小马智行。

以往榜单发布后,以马斯克的行事风格,总要出来Diss一番,而这次榜单出来后,老马愣是一声没吭。

自动驾驶一直都是特斯拉股价增长的巨大引擎,如今却并不被市场看好,哪里出现了问题?

01?

4家中国企业上榜,特斯拉老末

Guidehouse是根据各家的愿景、市场战略、合作伙伴关系、生产策略、技术、销售&营销&分销、产品能力、产品质量&可靠性、产品组合和持久力等多达10项标准进行综合评级。

结果虽然会存在一些争议,但还是受到了普遍认可,因为标准变多,可以达到相对全面客观的评级。

然后再根据这些标准进行打分,划分为“领导者(Leaders)”、“竞争者(Contenders)”、“挑战者(Challengers)”、“跟随者(Followers)”四个档次。

与去年的榜单相比,16家公司有老有新。过去几年里,由福特与大众汽车共同注资的自动驾驶公司Argo AI一直是榜单常客,且常年名列第一梯队。

但就在去年,Argo AI因为亏损问题,烧完37亿美金,最终不甘倒下,也正是因为这类企业的破产,榜单上才出现了几家新面孔。

具体来看,Waymo、Mobileye、百度和 Cruise 位居前四,被归为了自动驾驶领域的领导者的水平,评分分别为83.4、82.9、82、81.2

来源:Guidehouse

Mobileye是新增的“领导者”,从去年的榜单来看,Mobileye已经位于第二梯队的最顶端,得益于其稳定的现金流保障,仅仅第四季度的营收就达到5.65亿美元,同比增长了59%。

来源:Guidehouse

所以在Argo AI失意后,Mobileye成功跻身第一梯队。

Guidehouse认为这些公司在执行能力和策略能力方面,做的都比较出色。

Mobileye 在基于视觉的 ADAS 市场占据了主导地位;Waymo 拥有丰富的测试数据和经验;百度在中国市场具有强大的影响力和合作网络;Cruise 则得到了通用汽车等巨头的支持。

最关键的是,这些企业都已经开始了其商业化进程,在部分地区面向消费者提供了无人驾驶出租车业务。

而大部分公司都集中在了竞争者这一级别,其中包括Motional、Nvidia、Aurora、WeRide(文远知行)、Zoox、Gatik、Nuro和Auto X(安途),有两家企业来自国内。

来源:Guidehouse

评分分别为77.7,74.8,72.3,72.2,71.6,62.8,61.6,56.1,Guidehouse Insights认为它们在某些方面有着优势或潜力,但还需要进一步提升自己的竞争力。

韩国的初创公司Autonomous A2Z、丰田投资的May Mobility、小马智行Pony AI则被评为挑战者,他们被认为在规模或技术上还有较大的提升空间,评分分别为55.3,54.6,42.2。

值得一提的是,这已经是百度连续第三年在报告中位居“领导者”之列,也是自发布榜单排名以来唯一进入“领导者”的中国公司。

Guidehouse认为,百度现有业务可以为自动驾驶技术的研发和业务拓展提供强有力的资源支持,这是百度在自动驾驶领域的先天优势。

更重要的是,百度Apollo在研发进程上的多年积累,比如全面布局算法模型、AI基础设施、量产车、高精地图、V2X等领域,在自动驾驶领域具备了端到端的技术优势。

来源:Guidehouse

在Guidehouse Insights给出的各个参数标准上,百度都得到了不错的分数,特别是在市场需求匹配性(Vision)方面,分数最高。

02

?特斯拉连续垫底三年

有“领导者”也必然有“追随者”。

从报告来看,销量上深受大家喜爱的特斯拉排名最末,无论是战略层面还是执行层面,都位列末位。是上榜公司里唯一一家横坐标与纵坐标均属于“跟随者”的玩家,也是榜单中是唯一的“追随者”。

而且这已经是特斯拉连续三年在榜单在榜单中持续垫底了,这次的评分仅为28分,Guidehouse保持了对特斯拉的一贯评价:营销承诺过多,兑现严重不足,安全等级不够。

来源:Guidehouse

Guidehouse 认为特斯拉过于依赖其“全自动驾驶”软件包,并没有真正实现 L4 级别的自动驾驶功能,而且斯拉的“完全自动驾驶包”成本已高达15000美元,但按照当下标准,特斯拉才只能提供L2级别的自动驾驶服务,另外特斯拉也缺乏与其他行业参与者或监管机构的合作意愿。

特斯拉需要彻底重新考虑其开发ADS的方法。近5年来,它的营销承诺过多,但兑现严重不足。在特斯拉变得更加诚实之前,它不太可能在这个排行榜的排名中有所提高。

来源:特斯拉

Guidehouse认为,尽管特斯拉FSD已经对软件用户进行了两年多的公开测试,但该系统仍然存在诸多问题,比如经常难以做出决策、对交通信号和其他道路使用者进行错误分类、无法处理许多特定区域的道路配置等。

报告中还列举了不少安全事故案例,表示“除非特斯拉从根本上改变技术方案,否则会是榜单所有公司中,最不可能部署安全可靠自动驾驶系统的公司”。

这几个评价几乎是给特斯拉的自动驾驶下了最后通牒。

在国外的特斯拉虽然不受待见,但在国内,特斯拉又是完全不同的待遇。

前段时间,亿欧智库发布了“2022年中国市场智能电动汽车品牌自动驾驶竞争力TOP15”榜单中,特斯拉位列榜首。

评判标准的不同,导致了地位的变化,亿欧智库认为自动驾驶自研是车企掌握产业核心技术话语权的最佳路径,也是车企展现核心竞争力的重要手段。

按照这个标准,特斯拉立马支棱起来了,毕竟特斯拉的车机平台和自动驾驶芯片,以及软件都是自研的,而专注自动驾驶自研的小鹏汽车位居第二也在意料之中。

不同维度的评判,得到的结果也不同,而且在未来能够体现自动驾驶企业竞争力的标准势必会越来越多,且越来越难以评判,这也是Guidehouse Insights虽然权威但也会受到争议的原因。

“就好比驾照考试中笔试第一,就以为自己能开F1了一样。”有网友这样评论。

03

?其他企业也不好过

Guidehouse 在报告中表示,在过去一年,投资者在自动驾驶领域的兴趣明显减弱、可用资金减少、技术上也存在诸多挑战

去年下半年,背靠大众和福特的自动驾驶公司Argo AI,宣布停止运营并关闭公司后,表示L4级别的商业化落地比想象中难的多。作为已经上市的自动驾驶公司图森未来,也在去年经历了一些高层人员动荡和股价暴跌的问题。

来源:Argo AI

而且Waymo也刚刚宣布要继续裁员,这已经是其年内的第二次裁员,将裁掉8%的员工。

Waymo表示,裁员的目的是尽可能地削减成本,保证继续开发和部署自动驾驶技术。“真正商业化的路还很长,但目前的小范围运营还没有带来太多的实质性收入。”

主导这次自动驾驶榜单的撰写人Sam Abuelsamid,在接受北美记者采访时透露,基于自动驾驶业务的商业板块盈利能力持续下滑,这直接增加了头部企业的经营成本,那些排名靠前的独角兽们也不例外。

前不久特斯拉被美国国家公路交通安全管理局(NHTSA),要求其召回近36.3万辆配备“全自动驾驶”(FSD)系统的汽车,也为自动驾驶行业敲响了一记警钟。

来源:特斯拉

原因是特斯拉的FSD测试版,没有遵守交通安全法,导致车辆行驶安全面临不合理的风险。

没错,自动驾驶就是如此现实和残酷。Guidehouse预测,在目前数十家自动驾驶公司中,能够在2030年前活下来的公司,不会超过10家

本文来自易车号作者超电实验室,版权归作者所有,任何形式转载请联系作者。内容仅代表作者观点,与易车无关

特斯拉车性能怎么样?

这方面还是不用过于担心,既然是已经上市的车辆,也具备自动驾驶的功能,在这个一有点什么就会破产的年代,肯定是不敢还没研究透彻就推行出来的,所以肯定是经过了非常多的测试和研究,确保了不会有问题才会拿出来卖,所以可以基本证明自动驾驶功能是安全的。但是也不能完全放心,不怕一万就怕万一,就我个人而言还是不想使用自动驾驶技术的,因为总会感觉还不够完美。

自动驾驶目前被分为6个级别,很多汽车厂商宣布将在2021年前后实现L4/L5级别自动驾驶车辆的商业化。特斯拉作为在自动驾驶方面最为激进的一家公司,全球所有特斯拉在 Autopilot 模式下已经跑了超过 3.5 亿公里。自特斯拉诞生以来,黑科技高性能等光环就一直加持在其产品身上,特斯拉更是首开自动驾驶商用化先河,在其车型上广泛搭载了智能化自动驾驶系统。

但是特斯拉的自动驾驶系统也经发生过不少交通事故案例,不管是在美国还是国内都造成过人员伤亡,但特斯拉并没有停下研发的脚步。纵观全球范围内,特斯拉的无人驾驶技术都还名列前茅。但还是发生过交通事故。

在美国新泽西州,Model X在使用特斯拉Autopilot自动驾驶系统原本是要沿着笔直的道路行驶,但是却在行驶中路线偏移,直接冲进两条道路的中间地段,接连撞倒了道路指示牌和其他物体,他曾试图想要夺回自主驾驶权。一般来说,当自动驾驶系统的自动转向功能启用时,驾驶员只需向方向盘施加压力或按下刹车,即可解除驾驶员辅助功能,但是Autopilot并没有要交还的意思。最终驾驶员没有及时控制Model X,所以才导致Model X撞到面目全非,唯一值得庆幸的是驾驶员并没有受到严重伤害。但依然证明自动驾驶技术还是存在漏洞。

特斯拉自动驾驶为何事故频发?特斯拉开启甩锅模式

挺好,从以下几方面评估:

1、起步:

起步是很快速,但是这种电动机类型的直线加速度,身体不容易适应,不如燃油发动机那种曲线加速度的让人感觉更舒服。

2、质量:

特斯拉电动汽车在质量、安全和性能方面均达到汽车行业最高标准,并提供最尖端技术的空中升级等服务方式和完备的充电解决方案。

3、迅速:

特斯拉汽车是美国生产的。零排放,零妥协。Tesla (特斯拉)的先进电力传动系统具有出色的性能。与包含数百个细小零部件的汽油内燃引擎不同,特斯拉电动机只有一个运动部件:转子。因此Model S的加速过程迅速,安静而平稳。

踩下加速踏板,只需3.0秒,便可以从零加速到100公里/小时。没有任何犹豫,不燃烧一滴汽油。Model S是汽车工程的进化。特斯拉汽车公司(Tesla Motors)成立于2003年,总部设在了美国加州的硅谷地带。

特斯拉自动驾驶已致超过50人死亡,到底该不该继续下去?

近日,一辆?特斯拉Model?X?在韩国发生严重交通事故,引起了社会各界的广泛关注,本次事故中共造成一死两伤。司机透露,事故发生时车辆出现失控并撞向墙。据悉,事故发生后导致首尔一处公寓楼停车场起火,仅灭火就耗费了近一个小时,韩国警方已经展开事故原因调查。

其实特斯拉的安全事故从一开始就从未停歇,早在2018年3月23日,38岁的苹果软件工程师黄伟伦驾驶特斯拉Model?X,在加利福尼亚州山景城附近的高速公路上发生严重车祸,不仅车身被撞得七零八落,同时因为动力电池的破损导致车辆迅速起火,黄伟伦因抢救无效死亡。据了解,发生车祸时,黄伟伦驾驶的特斯拉Model?X是在自动驾驶模式下,以约70英里/小时(113公里/时)的速度行驶。

NTSB在报告中表示,在特斯拉致命撞车事故发生前的最后6秒钟内,方向盘未能检测到黄伟伦的手,也没有证据表明其有制动或回避的行为。NTSB还发现了黄伟伦在驾驶过程中使用智能手机的证据。

根据特斯拉方面的证词,特斯拉在Autopilot接管汽车的最后18分钟里,系统没有检测到黄伟伦的手放在方向盘上,并发出了两次视觉警报,提醒他的手不要离开方向盘。特斯拉车主们表示,在使用Autopilot自动驾驶仪系统时,他们可以避免长时间握住方向盘,但特斯拉建议他们在使用该系统时还是要将手放在方向盘上,并集中注意力,显然,黄伟伦的行为违背了特斯拉驾驶安全手册上明令禁止的行为。

除此之外,还有著名的Model?3高速撞车事件,事故发生前夕,一辆正常行驶的特斯拉Model?3在高速行驶时,径直撞上了一台在高速公路发生事故的白色货车,随后,特斯拉对此发布声明,承认了当时的车机系统对于白色物体的判断容易出现误差,为此修改了自动驾驶功能开启的条件,司机必须时刻手扶方向盘并监测路面情况,准备时刻接管车辆。

今年1月,美国国家公路交通安全管理局(NHTSA)表示,将开始审查一份来自独立投资者Brian?Sparks的请愿书,该请愿书声称特斯拉汽车存在意外加速隐患,可能波及2013年到2019年生产的50万辆特斯拉汽车。

据悉,这份请愿书援引了许多媒体关于特斯拉电动汽车意外加速造成撞车的报道,包含127起投诉报告,涉及123辆特斯拉汽车和110起撞车事故,52人受伤。

该份报告显示,当车主试图将特斯拉车辆停在车库或路边时,这些车辆会突然加速,如果发生在交通行驶过程中或使用驾驶辅助系统时,就会导致撞车事故。

特斯拉官方发布声明表示:特斯拉车辆不存在“意外加速”情况。特斯拉同时称,请愿书完全是虚假的,是做空机构对特斯拉的抹黑。我们分析了我们了解到的每一起车辆意外加速事件的驾驶数据,结论是特斯拉汽车在所有事件中都按照设计要求正常运行。也就是说只有当驾驶员让汽车加速时,汽车才会加速,当驾驶员踩下制动后,车辆会正常减速或停止,但已经发生的多起事件中,驾驶员都未能按照特斯拉的使用说明将手放置在方向盘上并时刻监测路面环境。”

本文来源于汽车之家车家号作者,不代表汽车之家的观点立场。

特斯拉的“完全自动驾驶”到底靠不靠谱?

特斯拉最为新兴的能源电动车,毫无疑问在某些程度上彻底颠覆了传统的燃油车行业,让很多的科技迷充分地体验到了科学技术的魅力所在,很多人之所以会选择新能源车的代表之作特斯拉,很大程度上是特斯拉绝无仅有的无人驾驶功能,注意这里所说的无人驾驶并不是真正意义上的无人驾驶,官方叫做无人驾驶辅助功能,因为他不是真正的无人智能驾驶,种种的车祸表明这项技术还是不成熟,但这丝毫不影响人们对于购买特斯拉的热情,本人认为特斯拉的无人驾驶之路肯定要继续进行下去,这是毫无疑问的,可以从以下几个方面展开。

1.特斯拉的主要卖点决定肯定要继续。特斯拉在电动车领域根植多年,有着无与伦比的无人驾驶技术,虽然不是真正的不需要人为的架势,但是在某些程度上真的可以让驾驶员脱离双手的掌控,尤其是对于一部分跑高速的人来说,是非常有优势的,这也是大部分特斯拉用户所吹捧的优点所在,所以特斯拉不管是为了哪方面,肯定是不会停止继续的脚步。

2.造车势力都会有自动驾驶功能。不仅仅是特斯拉意识到无人驾驶的重要性,相信世界的造车势力,无论是BBA也好还是各大国产厂家也好,大家都在讨论自动驾驶这项革命性的技术,人类自由拥有第一辆可以上路的汽车到现在有着百年的历史了,虽然出现很多迭代更新的新技术,但是归根结底还是由司机乘客这两个部分组成。

3.全世界所有的车辆最终会回归到无人驾驶。大家都知道无人驾驶是未来人类的出行的终极目标,将来的车辆是不需要方向盘的,而这项技术归根结底还是无人驾驶的应用。

综上所述,尽管在无人驾驶的道路上有着种种的遗憾,但是科技的脚步不会因此而停止。

特斯拉自动驾驶经常会发生意外事故,究竟是因为什么?

撰文?/?朱?琳

编辑?/?温?莎

设计?/?杜?凯

来源?/?Forbes,作者:Brad?Templeton

10月20日,特斯拉发布了一个限量的测试版,面向其部分早期用户。该测试版被埃隆?马斯克(Elon?Musk)称为“功能完整的完全自动驾驶”。该公司还宣布,将目前出售给车主的“FSD?in?the?future”套装的价格上调2000美元(现价10000美元),以便他们在准备就绪时可以使用该软件。

该软件包给许多用户留下了深刻印象。一些人在Youtube上发布了该系统在城市街道上运行的视频。尽管有这个名字,但“完全”自动驾驶既不是自动驾驶,也不是业内大多数人所说的完全自动驾驶。更准确的说法是,它是在城市街道上运行的特斯拉“Autopilot”。

像Autopilot一样,它需要驾驶员不间断的监控,也确实会发生错误,需要驾驶员的控制以避免事故的发生。它可以处理各种各样的城市街道,但不能应对车道或停车场,所以人类司机在旅程的起点和终点都要开车。之前的Autopilot只操作高速公路、乡村公路和部分城市快速路,不操作标志、交通信号灯等基本要素。

该车辆的功能比我在那工作时的Google?Chauffeur(现在的Waymo)在2010年展示的稍好,尽管重要的是它仅使用摄像头和最小限度的地图即可完成工作,而Chauffeur需要使用详细的地图和激光雷达,并尽量减少使用摄像头。

这十年间,神经网络计算机视觉的能力得到了突飞猛进的发展。特斯拉做出了很大的努力——仅在主要参与者中有效——避免了激光雷达,并严重依赖于摄像头(还有雷达,这是每个人都在使用的)。

在线视频显示,这些车辆在各种街道和十字路口行驶。这包括没有标志的小街道,大的多车道街道,合理复杂的十字路口,包括无保护的转弯等等。这就是特斯拉所谓的“功能完整”——它至少在所有典型的路线上做了一些事情。

虽然我们不能从一小部分视频中得出确切的结论,但可能会有施工和一些等级的道路的问题,我们看到了白天和晚上,但还没有看到恶劣天气下的视频。

这些视频中,有一些必要的干预——人类司机必须抓住方向盘,控制局面,以避免极有可能发生的事故。虽然没有关于需要这些的频率的统计数据,但这种干预似乎相当频繁。这是需要持续人工监督的系统规范,也是他们需要这种监督的原因。

所有的完全自动驾驶汽车项目都需要一个或两个“安全司机”在方向盘后面,他们也需要做这样的干预,一开始很频繁,随着时间的推移越来越少。

直到最近,Waymo和现在的Nuro才部署了没有监管司机的车辆。Cruise最近获得了这样做的许可,但还没有实施,他们声称可能会在今年年底实施。亚马逊的Zoox也有这样的许可证。

根据特斯拉的视频和声称,在埃隆?马斯克的通勤中,他通常很少干预驾驶,有时根本没有干预,但这“似乎在大多数情况下都是有效的”。在现实中,我们要计算需要干预的频率。

据报道,特斯拉的Beta测试只对有较高安全记录的司机进行,但没有透露测试是如何进行的,这给我们带来了一些大问题:

这种干预有多频繁,情况有多严重?

特斯拉在没有经过培训和合作伙伴的情况下,能有效地让客户扮演自动驾驶汽车安全司机的角色吗?这与优步在发生致命事故时的做法有何不同?

特斯拉决定不使用激光雷达和详细地图,这对他们系统的质量有什么影响?

驾驶员可以安全地使用它吗?通过测试又能得到什么呢?

这合法吗?

干预的频率有多高?

人们不能从这些视频中辨别,但我们可以比较一下人类发生事故的频率。

有时候,干预会在不需要的时候发生,所以真正需要衡量的是“必要的”干预,即没有干预就会发生不好的事情。许多团队使用模拟器来模拟在没有干预的情况下会发生什么。“坏事”可以指严重的事故,或者只是指明显的驾驶失误,比如短暂地转向另一条车道,即使你很幸运,车道上没有车。

人类每10万英里就遭遇一次事故,普通驾驶大约需要8-10年的时间。保险公司每25万英里(25年)就会遇到一次,警察每50万英里(40-50年)就会遇到一次。

幸运的是,死亡非常罕见——人类驾驶每8000年发生一次,高速公路上每2万年发生一次。这对任何一个司机来说都是罕见的,我们开得太多,所以我们才会遇到那么多。

就其本身而言,整天驾驶无需干预似乎非常令人印象深刻,尤其是对那些初入这一领域的人来说,但这距离真正实现完全自动驾驶,而不是监控驾驶员辅助的目标还有很长的路要走。

这种测试方式可以吗?

如果没有受过良好训练的安全驾驶员,并且每辆车配备两名驾驶员,大多数自动驾驶团队是不会测试这种水平的系统的。

优步对其安全司机的培训很差,该公司承认,发生事故时,每辆车只安排一名司机是错误的。这起事故的主要责任是安全司机无视所有规则,用手机看电视而不是工作,但我们知道其他特斯拉车主也会做类似的事情。

另一方面,Autopilot表明,对于遵循良好程序的驾驶员来说,安全使用Autopilot是可能的。

统计数据显示,在高速公路上使用Autopilot的特斯拉司机不如不使用的司机安全,但安全程度只是略有下降。(特斯拉公布了误导性的数据,声称它们更安全。)这种较低的安全水平可能可以解释为这样一个事实:一些司机正确地使用了它,是安全的,而另一些司机则没有,从而降低了平均水平。

我的经验是,使用它的一个好方法是在你的头脑中一直保持“影子驾驶”,即脑中想着移动你的手但不施加压力,当汽车转动方向盘时让你的手随着方向盘移动。用这种方法,如果方向盘不像你想要的那样移动,你可以快速地从轻力转变为实力,推动方向盘到它应该去的地方。

但并不是所有的司机都这么做,有些人不这么做,甚至试图打破特斯拉的警告。许多人认为,车内的摄像头监控着司机的视线,以确保注意力得到了关注。其他竞争系统也这样做。特斯拉对此进行过实验,但迄今为止拒绝采取此类对策。

当然,让细心的司机测试这个软件对特斯拉来说是非常有价值的。这就是为什么其他公司花费数百万美元来支付安全驾驶员在几个州进行试车的原因。

马路中央也有拐角案例

所有这些测试的目的都是为了解决部署这些汽车的难题。在没有持续干预的情况下,在普通道路上驾驶相对“容易”(但要做到特斯拉所做的,即在没有激光雷达和地图的城市街道上驾驶,就比较困难)。

即使你能处理99.9%的情况,你也只是达到目标的一小部分。你需要找到所有那些不寻常和罕见的事件,人们称之为“拐角案例”。但这些不只是发生在角落里,找到它们中的大多数是一个非常漫长和困难的项目。Waymo的顶尖团队耗费了十年时间来做这件事。没有人真正做到过。

在网络视频中,司机们所表达的喜悦之情,是那些外行人的心声,他们以为得到99.9%的答案就能解决99.9%的问题。但它解决的问题还不到1%的十分之一。

驾驶辅助工具中,通过人工监视,你可以让人工监视人员处理剩下的问题,作为人类一般的问题解决者,我们通常可以这样做。

也就是说,特斯拉有一个很棒的测试工具。司机们不再花钱找人来测试车辆,而是为这样做的特权付费。这让特斯拉比其他任何公司都能以更低的成本更快地积累里程,他们自然想要利用这一点。

这对特斯拉来说是个好消息,因为当我说他们已经走了千分之一的路时,你可能认为这意味着他们还有几千年的工作要做。好消息是,由于团队随着时间的推移越来越快,他们做后期的工作比早期的工作更快。

Waymo可能花了2年时间才达到1/1000,但再过10年,他们就差不多达到目标了。这是因为随着时间的推移,他们都壮大了自己的团队和测试队伍,也接触到了各种各样的新技术,比如神经网络、高级模拟等等。

特斯拉一直在这么做,而且还制造自己的处理器,几乎和谷歌自己定制的处理器一样好。摩尔定律还没有消亡,它不断提供更多的工具来加快其余工作的进行。但目前特斯拉还有很长的路要走。

地图和激光雷达

到目前为止,我们所看到的并不能告诉我们很多关于特斯拉避开激光雷达的争议选择和相关问题。

特斯拉希望利用摄像头和神经网络创建虚拟激光雷达,告诉他们摄像头看到的视觉目标有多远。这些视频向我们展示了他们对汽车和其他障碍物闪烁的感知,这在这些视觉系统中很常见,但也显示出他们还没有完全实现。

我们进一步了解了他们不使用详细地图的决定。人们试图在没有地图的情况下开车,以避免地图成本,并能够立即处理整条道路而无需绘制地图。地图可为你提供更多数据(即使它们错了并且道路已经改变),可以帮助你更安全。

不管你对地图的成本有什么看法,你很快就会想到没有它们的情况,而不是你想在第一批上路的汽车上做的事情。我们可以在特斯拉“FSD”的视频中清楚地看到这一点,该视频向左转弯并带有分隔线。

在这个视频中,你看到车辆左转。在几乎恰好一分钟的时间内,汽车针对要驶入的道路计算出了一个错误的地图,从而将道路分隔线放置在错误的位置。它试图驶进迎面而来的车流中,但司机接管了它,把车开进了正确的车道。

一辆没有地图的汽车在驾驶时,它的地图就会自动生成。它必须弄清楚所有的路缘、车道、标志和交通控制系统在哪里,以及每条车道的规则,然后从中选择驶入哪条车道以及如何驶入。

一辆有地图的汽车依赖于之前通过交叉路口的经验,以及对数据理解的人类质量保证。它仍然需要了解现场情况,特别是道路发生变化的任何地区,当然还要了解道路上所有移动的东西,但首先要做的是让路面更安全。

特斯拉自然会努力使自己的汽车更好地处理这样的路口,而不会再次犯同样的错误。而且,他们的车队意味着他们将迅速获得有关此方面的报告,并在进行必须进行的逐步改进方面具有优势。

但是,尚无法从摄像头图像完全了解道路的布局,这就是为什么大多数团队都觉得拥有包含所有细节的地图可以使它们更安全,功能更强大,即使制作和维护地图要花钱,并且它最初限制了可提供更高安全性的驾驶区域。

这是合法的吗?

其中一些测试人员在加州。这让人想起了早期的一个事件,当时由安东尼·莱万多夫斯基(Anthony?Levandowski)领导的优步自动驾驶团队试图在加州测试优步的车辆。加州法律要求测试自动驾驶汽车必须获得许可。

优步并不想获得许可,尽管莱万多夫斯基参与了起草这部法律的谈判。优步声称,由于法律豁免了“司机辅助”系统需要许可,优步并不需要许可,因为他们在任何测试车辆上都有一名安全司机,因此这就是司机辅助。

汽车制造商一直在推动在法律中加入驾驶员协助例外条款,因为他们不希望他们销售的辅助系统突然需要许可。

加州车管所说“不行”。毕竟,既然每个人都使用安全驾驶员,那么法律就毫无意义,任何汽车都不需要许可证。

他们的观点是,如果你真的试图制造一辆自动驾驶汽车,你需要许可证,即使你有一个人作为正式司机监控它。他们告诉优步,他们将吊销所有优步车辆的牌照,除非他们排队等候。

这使特斯拉处于一种不寻常的状况。特斯拉的高速公路版Autopilot是驾驶员的辅助工具,不需要许可证。但是他们将这个Beta测试版本称为“完全自动驾驶”。

正如我在上文中所断言的那样,这并不是像大多数行业内部人士所说的那样是真正的自动驾驶或完全自动驾驶,但是只要特斯拉说这是制造自动驾驶汽车的努力,许可证法似乎可能适用于他们,并关闭该州以及可能具有类似规则的其他州的Beta版程序。

本文来源于汽车之家车家号作者,不代表汽车之家的观点立场。

特斯拉自动驾驶为何事故频发?

特斯拉又发生了一次事故!

据国外媒体报道,几天前,美国底特律的一辆白色Y型轿车在T型路口撞上一辆大型卡车。 Y型车的前部很低,直接进入卡车底部,车辆严重受损。

事故发生在当地时间上午3:20左右。事发时,一男一女在车上受重伤,被送往当地医院救治。卡车司机没有受伤。

发生四起事故,两人死亡,两人受伤。为什么特斯拉总是撞上一辆白色卡车?

特斯拉最近在底特律撞上一辆白色卡车

在2016年和2019年,特斯拉在美国发生了两次致命事故。在打开L2级自动驾驶系统的同时,车辆在垂直方向撞到一辆大型卡车,最终导致车辆上人员丧生。

2020年,台湾的Model 3也撞上了一辆以高速翻转的卡车。

在2019年的特斯拉事故车中,驾驶员不幸死亡

发生四起事故,两人死亡,两人受伤。特斯拉为什么总是撞上一辆白色卡车?

2020年事故现场监控画面

这三起事故具有高度相似性。因此,在特斯拉发生另一起类似的事故后,它也引起了极大的关注,与此同时,它继续引发了一个令人深思的问题:

为什么L2自动驾驶系统被称为最强大的量产汽车,却无法避免白色卡车?

答案不是特斯拉的技术不强,也不是特斯拉的白色卡车或“天敌”。

这是因为在当前以“相机+毫米波雷达”为主要传感器的L2自动驾驶方案中,检测静态车辆是一个世界性的问题。每个系统对于固定式车辆来说都是令人头疼的问题。

例如,今年2月,一台蔚来ES8打开L2自动驾驶系统进行巡航时,撞到了行人和静止的五菱宏光。 (请参阅商品《蔚来ES8开L2撞人又撞车,为啥装24个传感器都躲不开?》)

1.尚未确认特斯拉是否已打开L2

如前一篇文章所述,该事故引起了一些中外媒体关注的根本原因在于,特斯拉的车型经历了严重事故,导致L2撞上卡车并杀死了驾驶员。

但是,从当前的外国媒体报道和Twitter上知情网民的新闻来看,事故发生时尚无法确认车辆是否开启了L2自动驾驶系统。

事故现场

因此,此事故的原因与特斯拉的L2自动驾驶系统无关。

当然,就责任分工而言,即使是2016年和2019年发生的两次致命卡车撞车事故也是驾驶员的问题。

2016年类似的事故现场因为特斯拉的AutoPilot系统属于L2级自动驾驶,所以其中一个仅在有限的场景下工作,而另一个则是监视路况并准备接管。

例如,当在垂直方向上有一辆大卡车时,这是一个不在系统中工作的场景,驾驶员需要及时接管车辆。

去年3月23日,美国国家运输安全委员会(NTSB)发布了有关两个Tesla AutoPilot L2自动驾驶系统的最终报告。报告显示,在这两次事故中,驾驶员过度依赖Titla L2级自动驾驶,从而出现了意外现象,最终导致了事故。

特斯拉有2伤2伤,总是撞上白色卡车吗?

NTSB在其网站上发布了最终调查报告

NTSB认为,卡车司机在十字路口不设停车位,而是直接驶入高速公路,属于危险的驾驶行为。特斯拉Model 3驾驶员过分依赖Testla L2自动驾驶技术,导致无法集中注意力。 NTSB最终确定了事故原因,原因是特斯拉AutoPilot L2自动驾驶系统在驾驶员下车时没有及时提醒,并且设计条件不一致,最终导致了撞车事故。

其中,事故是2019年3月1日MODEL 3撞上卡车导致驾驶员死亡的事故。

即使没有L2,Nasla的AEB自动紧急制动系统为什么会出现故障?

特斯拉的自动包围曝光系统可以手动关闭,因此,如果驾驶员关闭自动包围曝光,那么该系统自然将无法正常工作。

二,事故可能性分析传感器的配置

从美国监管机构的报告中可以看出,卡车的垂直碰撞显然超出了特斯拉L2系统的工作范围,加上驾驶员未能及时接手。

因此,问题是,为什么自动驾驶仪系统(被公认为“量产汽车中功能最强大的L2”)不能避开一辆大型卡车?

这与车东关于威来ES8事故的先前报告的结论是一致的:事故的根本原因是“摄像头+毫米波雷达”的传感器配置,很难识别静止的车辆或行驶缓慢的车辆。

与Model 3一样,Tesla Model Y配备有8个摄像头,1个大陆毫米波雷达和12个超声波雷达。

特斯拉传感器配置

当打开L2级自动驾驶系统(自动驾驶仪,NOA或EAP系统)时,车辆主要依靠前视摄像头和毫米波雷达来检测前方的物体。

尽管特斯拉目前有3个摄像头,但它不使用立体视觉。这三个相机主要具有不同的焦距和不同的视场。因此,总的来说,特斯拉与大多数当前的L2自动驾驶系统相同,都是视觉+毫米波雷达传感器解决方案。

无论是使用基于规则的视觉算法还是深度学习技术,在感知外部物体时视觉都永远不可能100%准确,甚至经常会出错。

例如,当作者自己的特斯拉走出地下室时,他会莫名其妙地将隔离墙识别为公共汽车。另一个例子是最近流行的Douyin视频,其中特斯拉莫名其妙地识别了空墓地中的行人。

特斯拉在无人墓地认出行人

另外,还存在将公交车上的人的照片识别为行人并将路侧广告屏幕上的停车标志识别为真实停车标志的情况。

依靠反射的毫米波来检测目标的雷达不会被“听到”,如果前方有东西,就会有回声,如果什么都没有,就不会有回声。

正是由于视觉错误的可能性较高,雷达才更加“可靠”,因此大多数L2系统将在视觉的基础上引入毫米波雷达的检测结果以进行验证。

如果摄像头检测到前方车辆,并且雷达也确认了前方车辆的位置和速度,则可以执行制动操作。

如果将这些错误识别的结果用于做出驾驶决策,则显然会出现更多问题。特斯拉很自然地知道这一点,因此在实践中他不会对纯粹的视觉感知结果做出反应。

因此,这起事故的原因非常清楚。不管视觉上是否能识别前方的车辆,毫米波雷达都不能给出结果,因此最终系统没有响应。

第三,毫米波雷达天生就有缺陷,害怕固定式车辆

毫米波雷达不是“闻所未闻”的,那么为什么它不能识别前方的卡车呢?

东南大学毫米波国家重点实验室的毫米波雷达技术专家,毫米波雷达公司的Falcon Eye Technology的首席技术官张辉反复分析了背后的原因。

从工作原理的底部开始,毫米波雷达主要依靠多普勒效应来感知运动目标。多普勒效应的特征在于,动力学是最容易感知到的动力学,动力学更难以感知到静力学,而静力学则极其难以感知到静力学。

这是因为如果前面的车辆是静止的,则目标信息容易与地面杂波混合,并且需要某种算法来将目标与目标区分开。如果它是一辆正在行驶的汽车,则根据其多普勒信息,最好检测目标。

因此,如果卡车静止不动或行驶缓慢,则雷达算法无法知道前方有物体。

但是这种可能性并不大,因为主要的雷达公司已经制定了一些可以识别静态物体的感知算法。

真正的困难是当前的雷达没有海拔信息,空间分辨率也不足。

没有高度信息,这意味着雷达很难区分横穿道路的路标和桥下的汽车。空间分辨率不足意味着两个非常接近的物体的回波将混合在一起,并且很难知道有多少个目标。因此,在雷达公司和一些汽车公司获得雷达反射数据之后,它们将通过算法直接过滤掉一些静止的物体或怀疑是静止的物体,以避免错误的反应。

例如,在这种事故情况下,由于卡车沿模型Y的垂直方向行驶,如果同时行驶速度非常慢,则由于缺少径向多普勒分量,雷达识别算法可以轻松对其进行过滤列为静态目标。

如果毫米波雷达能够滤除目标,则无论是否可以看见卡车都无法正常工作。

结论:汽车公司仍在优化L2自动驾驶

回到这次事故,尚未确定特斯拉是否开启自动驾驶系统,事故原因仍需当地警察和特斯拉官员调查。实际上,即使打开了L2级自动驾驶仪系统,白色卡车的场景还是有些极端。对于当前量产的L2自动驾驶系统,仍然存在许多无法处理的情况。

鉴于L2级自动驾驶系统中存在的各种问题,汽车公司也给出了自己的解决方案。一方面,通过“阴影模式”和道路测试等方法对自动驾驶算法进行了持续优化,从而使自动驾驶系统继续趋于成熟,同时不断提高了L2自动驾驶的功能。另一方面,随着硬件成本的下降,许多型号都计划搭载Lidar以避免类似事故的发生。

近日,一起处于自动驾驶状态的特斯拉Model X撞击护栏致驾驶员死亡的事故再次将自动驾驶技术推到了风口浪尖。一下子又再次“引爆”了人们对自动驾驶技术的质疑。

这些年来,特斯拉在全球范围内累计卖出约28.7万辆车,但已知的因自动驾驶致死的事故已经达到了5起。首例就发生在中国河北邯郸,此事当时在国内引起极大轰动,事故中死亡车主的老父亲两年多来一直在通过法律途径为儿子讨公道,直到前一段时间特斯拉才勉强承认了事故是由自动驾驶系统引起的。

除特斯拉外,其余还处于测试阶段的自动驾驶技术也常常发生事故,就在今年早些时候一辆Uber自动驾驶测试汽车才酿成了全球首例自动驾驶致行人死亡的事件。

光是2018年前三个月,有据可查的因自动驾驶导致的车祸事故就已经达到4起,其不靠谱程度之高,已经完全对不起“自动”二字了。

其实从理论上讲,按照目前的客观技术条件,实现“靠谱”的自动驾驶是完全可以实现的,但为何当下的自动驾驶技术却总是事故频发呢?最近美国专家给出了一个解释,答案让人大跌眼镜。

经过对多起特斯拉汽车自动驾驶事故的分析,这位名叫吉姆麦克弗森的美国驾驶安全专家发现,事故发生时都有一个共同点,就是当天的阳光很强烈。在实际测试后,吉姆分析强烈的阳光会对自动驾驶系统的探测摄像头造成影响,导致摄像头成像模糊、失真甚至完全是一片白,因此自动驾驶系统会无法识别出前方路况和障碍,从而导致事故的发生。

仔细一想确实如此,用过全景影像的人都知道,光线对汽车摄像头的影响非常大,尤其是清晨和傍晚太阳角度较低时,阳光直射到汽车某个角度的摄像头上,全景影像系统中那个角度的成像就会是一片白光。

别说汽车上的摄像头了,就算是目前智能化程度和紧密程度最高的手机摄像头甚至单反相机,在面对阳光直射时也很难保证成像的还原度。

美国专家给出的这个答案,看起来非常的简单且另类,但很有可能会成为人类解决自动驾驶技术缺陷的新思路。

文章标签: # 特斯拉 # 驾驶 # 自动