特斯拉无人驾驶安全吗,特斯拉无人驾驶好用吗
1.特斯拉的“完全自动驾驶”到底靠不靠谱?
2.车主上路实测特斯拉"全自动驾驶"撞上护栏
3.特斯拉的“完全自动驾驶辅助”功能可靠吗?
依据一份技术报告所说,配置了辅助驾驶系统AutoPilot的特斯拉汽车Model X车子没法靠谱地鉴别公路施工狭小等阻碍物,而且有时也会多余地运行刹车踏板,德国慕尼黑人民法院由此觉得,应用AutoPilot有可能在市区导致“极大风险”并导致撞击。
不但法国,在国外,特斯拉汽车也在遭到调研。上星期,美国国家道路交通安全管理局表明,并对近日出现于加利福尼亚州的一起特斯拉车祸进行特别调查,现阶段还不清楚安全事故时是不是处在无人驾驶。据路透社报导,美国国家道路交通安全管理局自2016年至今对此特斯拉电动车进行了36起特别调查,这种汽车被猜疑用了无人驾驶等最先进的辅助安全驾驶系统。
实际上,现阶段的自动驾驶技术还远没达到全自动驾驶的水平,但是,因为宣传的措辞模糊不清,及其新手司机的误会,低级的无人驾驶技术经常被期待完成高级别的自动驾驶功能,而安全事故往往也因而引起,特斯拉汽车本次被德国法院处罚,必定会引起业内对这一问题更深层次的思索。
该车子没法靠谱地鉴别公路施工狭小道路等阻碍物,而且有时也会多余地运行刹车踏板。特斯拉的侓师编造谎言,Autopilot自动驾驶辅助作用并不是为城市公共交通定制的。人民法院表明, 驾驶员在各个的环境里手动式转换这个功能是不可行的,因为这个会到安全驾驶中分散注意力。
特斯拉汽车被称作自动驾驶行业榜样,在其中研发的高算力处理芯片则反映特斯拉的整体实力,与此同时特斯拉汽车还在持续健全FSD手机软件Beta版。特斯拉汽车有关人士表示,特斯拉汽车全系列车系标准配置Autopilot自动辅助驾驶系统软件,根据监控摄像头等感应器组成完成360度视角,Tesla Vision视觉处理系统软件可以对驾驶自然环境开展全面感知,从而减少安全事故、提高安全驾驶。
特斯拉的“完全自动驾驶”到底靠不靠谱?
北京时间4月19日,一特斯拉汽车在美国德州休斯顿北部撞上一棵树,事故导致两名男子死亡。警方调查称当时无人坐在驾驶座上,一人在副驾驶,另外一人在后排座位上。此前特斯拉发布2021年第一季度安全报告称,使用自动驾驶仪和启用主动安全系统的特斯拉平均里程事故率是美国平均值的1/9左右。据统计,自2013年全球范围内特斯拉事故已超200起,超九成事故均由车辆失控引起。
特斯拉的自动驾驶技术处在什么水平?
特斯拉最大的争议其实不在于它的技术够不够厉害,而是它一直采取的激进式宣传手法。特斯拉着实推出了FSD(完全自动驾驶) Beta套件,当前已经能够实现部分市区场景下的自动驾驶功能。日前,有外媒曝光了一段特斯拉自动驾驶套件(FSD)最新测试版本的测试视频。期间,特斯拉在使用FSD功能时,打开了行人侦测功能,并且车辆成功实现了自动避让行人,进一步验证了其安全性。此外,在此前的实测中,还显示了FSD除了能够自动跟车行驶之外,还可以借道超车,自动会车等功能。在没有车道线的转弯路况,特斯拉FSD可以自动识别出车道和路肩,确保车辆正常完成转弯等驾驶动作。
如何看待马斯克称特斯拉自动驾驶安全性是普通车10倍?
早就说过了,马一龙的逻辑是纯粹功利主义。只要统计数据好看了,一切就是好的。十万个人类司机手动驾驶,里面有酒驾的,毒驾的,疲劳驾驶的,年纪太大眼睛花的,开到一半心脏病发作的,女朋友发神经抢方向盘的... 然后十万个里面有十个因为种种原因出车祸挂掉了。然后马一龙的车自动驾驶,有十万分之一的几率电脑认不出来横在路中央的大卡车,或者认错高速的分道线,一头撞上去把你烧烤了。然后马一龙说没关系,只是十万分之一的概率而已,比手动驾驶少死万分之九呢,还是核算的,你死了你就永远活着。然而你的灵魂争辩说我没酒驾是个好市民,怎么好端端的就死了呢?哇哈哈哈那只能怪你自己脸黑,命不好嘛。
特斯拉刹车真的有问题吗?
准确的说,应该是刹车不存在问题,但是采购博世的ABS系统调教可能出现了问题,同样的情况按照两浅一深再次操作也会撞上,很多人说应该一脚踩死,但是那种路况,那种坡度,但凡是开过车的都知道,那种速度下完全没有必要一脚踩死,据说视频中停在旁边的汽油车也试了一次两浅一深,就停了下来!不吹不黑的就事论事,这事故应该是ABS暴死导致制动踏板没办法完全踩下去造成的,可以说是软件故障,刹车系统本身没有问题,所以后期检测刹车系统肯定检测不出来!至于其他突然加速的问题和这次的问题不是一个事,但基本也可以确认并非硬件问题,而是软件接管车辆的逻辑和电脑与驾驶员的操作优先级上出了问题。
车主上路实测特斯拉"全自动驾驶"撞上护栏
撰文?/?朱?琳
编辑?/?温?莎
设计?/?杜?凯
来源?/?Forbes,作者:Brad?Templeton
10月20日,特斯拉发布了一个限量的测试版,面向其部分早期用户。该测试版被埃隆?马斯克(Elon?Musk)称为“功能完整的完全自动驾驶”。该公司还宣布,将目前出售给车主的“FSD?in?the?future”套装的价格上调2000美元(现价10000美元),以便他们在准备就绪时可以使用该软件。
该软件包给许多用户留下了深刻印象。一些人在Youtube上发布了该系统在城市街道上运行的视频。尽管有这个名字,但“完全”自动驾驶既不是自动驾驶,也不是业内大多数人所说的完全自动驾驶。更准确的说法是,它是在城市街道上运行的特斯拉“Autopilot”。
像Autopilot一样,它需要驾驶员不间断的监控,也确实会发生错误,需要驾驶员的控制以避免事故的发生。它可以处理各种各样的城市街道,但不能应对车道或停车场,所以人类司机在旅程的起点和终点都要开车。之前的Autopilot只操作高速公路、乡村公路和部分城市快速路,不操作标志、交通信号灯等基本要素。
该车辆的功能比我在那工作时的Google?Chauffeur(现在的Waymo)在2010年展示的稍好,尽管重要的是它仅使用摄像头和最小限度的地图即可完成工作,而Chauffeur需要使用详细的地图和激光雷达,并尽量减少使用摄像头。
这十年间,神经网络计算机视觉的能力得到了突飞猛进的发展。特斯拉做出了很大的努力——仅在主要参与者中有效——避免了激光雷达,并严重依赖于摄像头(还有雷达,这是每个人都在使用的)。
在线视频显示,这些车辆在各种街道和十字路口行驶。这包括没有标志的小街道,大的多车道街道,合理复杂的十字路口,包括无保护的转弯等等。这就是特斯拉所谓的“功能完整”——它至少在所有典型的路线上做了一些事情。
虽然我们不能从一小部分视频中得出确切的结论,但可能会有施工和一些等级的道路的问题,我们看到了白天和晚上,但还没有看到恶劣天气下的视频。
这些视频中,有一些必要的干预——人类司机必须抓住方向盘,控制局面,以避免极有可能发生的事故。虽然没有关于需要这些的频率的统计数据,但这种干预似乎相当频繁。这是需要持续人工监督的系统规范,也是他们需要这种监督的原因。
所有的完全自动驾驶汽车项目都需要一个或两个“安全司机”在方向盘后面,他们也需要做这样的干预,一开始很频繁,随着时间的推移越来越少。
直到最近,Waymo和现在的Nuro才部署了没有监管司机的车辆。Cruise最近获得了这样做的许可,但还没有实施,他们声称可能会在今年年底实施。亚马逊的Zoox也有这样的许可证。
根据特斯拉的视频和声称,在埃隆?马斯克的通勤中,他通常很少干预驾驶,有时根本没有干预,但这“似乎在大多数情况下都是有效的”。在现实中,我们要计算需要干预的频率。
据报道,特斯拉的Beta测试只对有较高安全记录的司机进行,但没有透露测试是如何进行的,这给我们带来了一些大问题:
这种干预有多频繁,情况有多严重? 特斯拉在没有经过培训和合作伙伴的情况下,能有效地让客户扮演自动驾驶汽车安全司机的角色吗?这与优步在发生致命事故时的做法有何不同? 特斯拉决定不使用激光雷达和详细地图,这对他们系统的质量有什么影响? 驾驶员可以安全地使用它吗?通过测试又能得到什么呢? 这合法吗?干预的频率有多高?
人们不能从这些视频中辨别,但我们可以比较一下人类发生事故的频率。
有时候,干预会在不需要的时候发生,所以真正需要衡量的是“必要的”干预,即没有干预就会发生不好的事情。许多团队使用模拟器来模拟在没有干预的情况下会发生什么。“坏事”可以指严重的事故,或者只是指明显的驾驶失误,比如短暂地转向另一条车道,即使你很幸运,车道上没有车。
人类每10万英里就遭遇一次事故,普通驾驶大约需要8-10年的时间。保险公司每25万英里(25年)就会遇到一次,警察每50万英里(40-50年)就会遇到一次。
幸运的是,死亡非常罕见——人类驾驶每8000年发生一次,高速公路上每2万年发生一次。这对任何一个司机来说都是罕见的,我们开得太多,所以我们才会遇到那么多。
就其本身而言,整天驾驶无需干预似乎非常令人印象深刻,尤其是对那些初入这一领域的人来说,但这距离真正实现完全自动驾驶,而不是监控驾驶员辅助的目标还有很长的路要走。
这种测试方式可以吗?
如果没有受过良好训练的安全驾驶员,并且每辆车配备两名驾驶员,大多数自动驾驶团队是不会测试这种水平的系统的。
优步对其安全司机的培训很差,该公司承认,发生事故时,每辆车只安排一名司机是错误的。这起事故的主要责任是安全司机无视所有规则,用手机看电视而不是工作,但我们知道其他特斯拉车主也会做类似的事情。
另一方面,Autopilot表明,对于遵循良好程序的驾驶员来说,安全使用Autopilot是可能的。
统计数据显示,在高速公路上使用Autopilot的特斯拉司机不如不使用的司机安全,但安全程度只是略有下降。(特斯拉公布了误导性的数据,声称它们更安全。)这种较低的安全水平可能可以解释为这样一个事实:一些司机正确地使用了它,是安全的,而另一些司机则没有,从而降低了平均水平。
我的经验是,使用它的一个好方法是在你的头脑中一直保持“影子驾驶”,即脑中想着移动你的手但不施加压力,当汽车转动方向盘时让你的手随着方向盘移动。用这种方法,如果方向盘不像你想要的那样移动,你可以快速地从轻力转变为实力,推动方向盘到它应该去的地方。
但并不是所有的司机都这么做,有些人不这么做,甚至试图打破特斯拉的警告。许多人认为,车内的摄像头监控着司机的视线,以确保注意力得到了关注。其他竞争系统也这样做。特斯拉对此进行过实验,但迄今为止拒绝采取此类对策。
当然,让细心的司机测试这个软件对特斯拉来说是非常有价值的。这就是为什么其他公司花费数百万美元来支付安全驾驶员在几个州进行试车的原因。
马路中央也有拐角案例
所有这些测试的目的都是为了解决部署这些汽车的难题。在没有持续干预的情况下,在普通道路上驾驶相对“容易”(但要做到特斯拉所做的,即在没有激光雷达和地图的城市街道上驾驶,就比较困难)。
即使你能处理99.9%的情况,你也只是达到目标的一小部分。你需要找到所有那些不寻常和罕见的事件,人们称之为“拐角案例”。但这些不只是发生在角落里,找到它们中的大多数是一个非常漫长和困难的项目。Waymo的顶尖团队耗费了十年时间来做这件事。没有人真正做到过。
在网络视频中,司机们所表达的喜悦之情,是那些外行人的心声,他们以为得到99.9%的答案就能解决99.9%的问题。但它解决的问题还不到1%的十分之一。
驾驶辅助工具中,通过人工监视,你可以让人工监视人员处理剩下的问题,作为人类一般的问题解决者,我们通常可以这样做。
也就是说,特斯拉有一个很棒的测试工具。司机们不再花钱找人来测试车辆,而是为这样做的特权付费。这让特斯拉比其他任何公司都能以更低的成本更快地积累里程,他们自然想要利用这一点。
这对特斯拉来说是个好消息,因为当我说他们已经走了千分之一的路时,你可能认为这意味着他们还有几千年的工作要做。好消息是,由于团队随着时间的推移越来越快,他们做后期的工作比早期的工作更快。
Waymo可能花了2年时间才达到1/1000,但再过10年,他们就差不多达到目标了。这是因为随着时间的推移,他们都壮大了自己的团队和测试队伍,也接触到了各种各样的新技术,比如神经网络、高级模拟等等。
特斯拉一直在这么做,而且还制造自己的处理器,几乎和谷歌自己定制的处理器一样好。摩尔定律还没有消亡,它不断提供更多的工具来加快其余工作的进行。但目前特斯拉还有很长的路要走。
地图和激光雷达
到目前为止,我们所看到的并不能告诉我们很多关于特斯拉避开激光雷达的争议选择和相关问题。
特斯拉希望利用摄像头和神经网络创建虚拟激光雷达,告诉他们摄像头看到的视觉目标有多远。这些视频向我们展示了他们对汽车和其他障碍物闪烁的感知,这在这些视觉系统中很常见,但也显示出他们还没有完全实现。
我们进一步了解了他们不使用详细地图的决定。人们试图在没有地图的情况下开车,以避免地图成本,并能够立即处理整条道路而无需绘制地图。地图可为你提供更多数据(即使它们错了并且道路已经改变),可以帮助你更安全。
不管你对地图的成本有什么看法,你很快就会想到没有它们的情况,而不是你想在第一批上路的汽车上做的事情。我们可以在特斯拉“FSD”的视频中清楚地看到这一点,该视频向左转弯并带有分隔线。
在这个视频中,你看到车辆左转。在几乎恰好一分钟的时间内,汽车针对要驶入的道路计算出了一个错误的地图,从而将道路分隔线放置在错误的位置。它试图驶进迎面而来的车流中,但司机接管了它,把车开进了正确的车道。
一辆没有地图的汽车在驾驶时,它的地图就会自动生成。它必须弄清楚所有的路缘、车道、标志和交通控制系统在哪里,以及每条车道的规则,然后从中选择驶入哪条车道以及如何驶入。
一辆有地图的汽车依赖于之前通过交叉路口的经验,以及对数据理解的人类质量保证。它仍然需要了解现场情况,特别是道路发生变化的任何地区,当然还要了解道路上所有移动的东西,但首先要做的是让路面更安全。
特斯拉自然会努力使自己的汽车更好地处理这样的路口,而不会再次犯同样的错误。而且,他们的车队意味着他们将迅速获得有关此方面的报告,并在进行必须进行的逐步改进方面具有优势。
但是,尚无法从摄像头图像完全了解道路的布局,这就是为什么大多数团队都觉得拥有包含所有细节的地图可以使它们更安全,功能更强大,即使制作和维护地图要花钱,并且它最初限制了可提供更高安全性的驾驶区域。
这是合法的吗?
其中一些测试人员在加州。这让人想起了早期的一个事件,当时由安东尼·莱万多夫斯基(Anthony?Levandowski)领导的优步自动驾驶团队试图在加州测试优步的车辆。加州法律要求测试自动驾驶汽车必须获得许可。
优步并不想获得许可,尽管莱万多夫斯基参与了起草这部法律的谈判。优步声称,由于法律豁免了“司机辅助”系统需要许可,优步并不需要许可,因为他们在任何测试车辆上都有一名安全司机,因此这就是司机辅助。
汽车制造商一直在推动在法律中加入驾驶员协助例外条款,因为他们不希望他们销售的辅助系统突然需要许可。
加州车管所说“不行”。毕竟,既然每个人都使用安全驾驶员,那么法律就毫无意义,任何汽车都不需要许可证。
他们的观点是,如果你真的试图制造一辆自动驾驶汽车,你需要许可证,即使你有一个人作为正式司机监控它。他们告诉优步,他们将吊销所有优步车辆的牌照,除非他们排队等候。
这使特斯拉处于一种不寻常的状况。特斯拉的高速公路版Autopilot是驾驶员的辅助工具,不需要许可证。但是他们将这个Beta测试版本称为“完全自动驾驶”。
正如我在上文中所断言的那样,这并不是像大多数行业内部人士所说的那样是真正的自动驾驶或完全自动驾驶,但是只要特斯拉说这是制造自动驾驶汽车的努力,许可证法似乎可能适用于他们,并关闭该州以及可能具有类似规则的其他州的Beta版程序。
本文来源于汽车之家车家号作者,不代表汽车之家的观点立场。
特斯拉的“完全自动驾驶辅助”功能可靠吗?
车主上路实测特斯拉"全自动驾驶"撞上护栏
车主上路实测特斯拉"全自动驾驶"撞上护栏,一名YouTube用户提供了首份视频证据,证明特斯拉的“全自动驾驶”套件并不像埃隆·马斯克所称的那样安全。车主上路实测特斯拉"全自动驾驶"撞上护栏。
车主上路实测特斯拉"全自动驾驶"撞上护栏1特斯拉一直在公开测试“完全自动驾驶”(FSD Beta)并非是什么秘密,上个月马斯克还曾自豪地宣称,上线一年来,特斯拉的FSD Beta版从未发生过事故。
不过,近日一辆使用完全自动驾驶FSD Beta版的特斯拉,在转弯后撞上路边护栏的视频得到曝光, 这被认为是FSD Beta版上线后的第一起事故 。
从公布的视频看,这台特斯拉正常右转,然而转弯后路线发生了偏差, 径直撞向了用于隔离机动车道和自行车道的雪糕筒护栏 ,引得车内驾乘人员一阵惊呼,甚至爆出了粗口,司机立刻接管车辆,踩下了刹车。
好在雪糕筒为塑料材质,加上应对及时,仅仅是撞弯了其中一个,车头有点受损,其他无大碍。
车主表示, 已经将该案例上传到了特斯拉反馈部门 。
值得注意的是,此前一位特斯拉Model Y车主曾向美国国家公路交通安全管理局(NHTSA)投诉称,自己的车辆在使用FSD Beta的时候发生了事故,但截至目前这一投诉尚无法得到证实。
车主上路实测特斯拉"全自动驾驶"撞上护栏22月10日消息,名为AI Addit的YouTube用户提供了首份视频证据,证明特斯拉的“全自动驾驶”(FSD)套件并不像埃隆·马斯克(Elon Musk)所称的那样安全。
AI Addit的视频是在美国加州圣何塞市中心的一次驾车过程中拍摄的,首次展示了激活FSD系统的特斯拉Model 3与自行车道护栏相撞的场景,并证明FSD应该对这起交通事故负有直接责任。
在视频中,可以看到特斯拉最新版本的自动驾驶软件FSD Beta Version 10.10指示Model 3转向将自行车道与机动车道隔开的护栏。尽管司机急忙踩下刹车,并疯狂地打方向盘进行躲避,但AI驱动的车辆还是重重地撞上了护栏。
令人担忧的是,在视频中,还能看到这辆特斯拉汽车似乎因为软件原因而闯了红灯,它还试图沿着铁轨行驶,后来又试图驶入有轨电车车道。
AI Addit的驾车视频长约9分钟,撞车事件发生在大约3分半钟的时候。这位YouTube用户似乎坐在靠近方向盘的驾驶位上,后座还有一名乘客陪同。在视频中可以听到AI Addit的声音:“我们撞车了,但我已经把刹车踩到底了!”乘客回答称:“我真不敢相信这辆车竟然没有停下来。”
马斯克上个月曾声称,FSD Beta系统从未发生过事故,但新的视频提供了证据,证明事实并非如此。在AI Addit记录的视频中,可以看到司机的双手只是轻触方向盘,而不是握紧它,完全由FSD控制方向盘的运动,使汽车遵循地图上预先定义的路线行驶。
FSD是专为特斯拉汽车提供支持的先进司机辅助驾驶软件,属于L2级自动驾驶系统,这意味着该系统可以控制汽车的速度和方向,允许司机双手短暂离开方向盘,但他们必须时刻监控道路,并做好接管车辆的准备。这项技术在购车时是可选的,包括几个自动驾驶功能,但仍需要司机监督。
在发生撞车事故的前一刻,可以看到司机双手猛打方向盘,但为时已晚。虽然车辆损伤并不严重,但被完全撞倒的护栏在汽车前保险杠上留下了油漆印记。
在这段视频发布前不久,特斯拉被迫召回近5.4万辆电动轿车和SUV,因为它们的FSD软件无法识别停车标志。美国安全监管机构2月1日发布的文件显示,特斯拉已通过“空中软件更新”禁用了这一功能。此外,特斯拉在与美国国家公路交通安全管理局(NHTSA)官员举行两次会议后同意召回受影响车辆。
许多司机正帮助特斯拉测试FSD系统,它允许车辆以9公里的时速通过带有停车标志的路口。在AI Addit的测试中,该系统可能没有意识到自行车道上有一段路被封锁了。在视频的大部分内容中,Model 3似乎在检测绿色自行车道护栏时遇到了问题,这些护栏散布在圣何塞市中心,这辆车几次朝它们驶去。
这段视频似乎突出了FSD的其他不足之处。FSD还处于测试阶段,因此将在广泛推出之前进行改进。在视频中,这辆车的AI试图指示其左转进入繁忙的主路,尽管当时正有一辆卡车迎面驶来。不过FSD似乎在“耐心”等待行人过马路和避开其他车辆方面做得很好。
2021年年底,特斯拉表示,有近6万名车主参加了FSD Beta计划。该计划只适用于该公司特别挑选的.特斯拉车主,以及安全得分高达100分(满分100分)的司机。然而,一位投资者去年10月透露,他的安全得分只有37分,但他被允许使用FSD Beta。
这些安全得分是由司机驾车时的行为决定的,司机允许特斯拉使用车载软件监控他们的驾驶过程。特斯拉警告说,任何使用L2级自动驾驶系统的司机必须随时准备介入干预。
FSD是特斯拉司机辅助驾驶系统Autopilot的升级版,后者曾引发多起致命事故。到目前为止,已经核实了12起涉及Autopilot的死亡事故,以及一系列非致命的撞车事故。
尽管马斯克在1月份断言FSD Beta的安全记录无懈可击,但NHTSA在2021年11月收到了第一起投诉,称FSD导致一名特斯拉司机撞车。这起事故发生在加州布雷亚,当时一辆激活FSD软件的特斯拉Model Y驶入错误车道,并被另一辆车撞上。
无独有偶,最新公布的监控视频显示,2021年8月,激活Autopilot的特斯拉Model Y撞上了停在美国64号高速公路旁州际公路巡逻队的警车,导致警车失控翻滚并撞上了站在路边的副警长。随后,这辆车侧扫指示牌,最终滚下山坡撞到树上。 据称,这辆特斯拉汽车的司机是德文德·戈利(Devainder Goli)医生,他在汽车处于自动驾驶状态时正在手机上看**。
自动驾驶汽车专家萨姆·阿布萨米德(Sam Abuelsamid)表示:“这些系统都不是自动驾驶系统,而是司机辅助系统。所有系统都是为司机观察道路而设计的,随时都要保持专注。事实上,在特斯拉的系统中,司机的手也应该总是放在方向盘上。制造商可能经常夸大系统能做什么,而不会谈论它们不能做的事情。”
车主上路实测特斯拉"全自动驾驶"撞上护栏31月18日,特斯拉CEO埃隆·马斯克声称FSD(完全自动驾驶)测试版推出使用以后,就没有出过错。在此前一日,特斯拉的一名股东Ross Gerber在twitter上称,在FSD发布后的一年多里从未出过车祸意外或有人受伤,而同期美国则有20000人死于交通意外。马斯克转发了这条推特,并确定的说:“没错”。
而在早前两日,马斯克的这一确定性答案受到了质疑,一位叫 AI Addict的视频博主分享了段其体验FSD功能的影片,影片拍于加州一个只有100多万人口的圣何塞。按视频的说明,博主已经更新到今年1月5日所推送的 FSD Beta v10.10(2021.44.30.15)版本。视频当中车辆在FSD的控制下大部分情况表现优秀,但当行驶到一段右转道路后,视频到了3分30秒的时候,车辆右转后没有正确识别出道路边上的防撞柱,毫不犹豫的撞了上去,车内的人也立即被吓到,还好驾驶者一直都有注意路况,也把手一直放在方向盘上发生事故时立即介入,才没有造成更大的车祸事故。
当然,特斯拉在网页和FSD功能说明当中一直提醒完全自动驾驶的用户:FSD处于早期测试阶段,使用时必须更加谨慎。它可能会在错误的时间做出错误的决策,所以必须始终保持双手在方向盘上,并额外注意道路状况。驾驶者需要持续关注道路,并准备好立即采取行动,特别是在盲区、十字路口和狭窄道路的驾驶时。现在看来,这种提醒还是很有必要。
特斯拉 FSD Beta 的安全性一直以来也受到一些质疑,在不同的版本当中会出现不同的问题。比如在早前的9.0版本当中,转变后没有识别出路边的树木,没有识别出公交车道,没有识别出单行道,转弯后直接开到了停车位上行驶等一系列的问题。
除此以外,外界的批评也包括特斯拉把还没有完成开发的功能直接交付给消费者使用,让人们在实际的行驶道路上使用这一系统不负责任。
特斯拉的自动驾驶系统,通过摄像头对外界物体进行识别并做出反应。正常的情况下可以识别路边的障碍物,雪糕筒,特殊车道的标识以及停车标志,目前仅开放给美国的车主付费使用。
FSD Beta 自2020年9月底正式对外发布使用,对此感兴趣的车主可以在手机当中申请使用,而特斯拉则会根据车主近期的驾驶评分决定是否开通此功能,而事实上,大部分的车主都可以使用上这一功能。特斯拉则会在驾驶过程当中监控、搜集行车数据调整升级优化系统,这也是FSD快速提供升级包的原因。自动驾驶业内,普遍认为激光雷达配合高精度地图才是自动驾驶的解决方案,而特斯拉则反其道而行,完全抛弃激光雷达选择了相信当下摄像头所看到的东西,视频已上传三天,特斯拉没有解释事故是否确实因FSD没有识别出路边的那一排绿色隔离柱而导致。
2021年2月1日,美国国家公路交通安全管理局(NHTSA)要求特斯拉召回5.3万辆电动汽车,原因是这些车辆当中带有的“滚动停车”(rolling stops)功能与法律冲突,这一功能允许特斯拉以每小时5.6英里的速度通过有双向停车标志的车字路口。而美国的交规则要求,这一标志与红灯接近,当路口有这一标志的时候,即便周围没车没人,也必须在路口白线前停下3秒后确认路口的情况下才能继续行驶。而特斯拉的软件则引导车辆低速通过因此被召回。
马斯克随后解释此功能不存在任何安全问题。他称:”汽车只是减速到大约2英里(3.2 公里),如果视野清晰,没有汽车或行人,就继续向前行驶。“
一月中马斯克才刚称赞完 FSD Beta 自一年前计划开始到现在,“从未”发生过任何错误,但最近这一车主的实测影片可是把马斯克的脸打的肿肿的,因为FSD Beta 的错误判断,车辆直接撞上路边的防撞柱。当然,这个事故也算不上严重,毕竟车辆没有受到严重的损坏也没有人员受伤,不知道这是否包含在马斯克此前的”意外“范围之内。
美国NHTSA也提醒:“到目前为止,还没有任何一台市售车型可以实现自动驾驶,每辆车都需要司机操控。虽然先进的辅助驾驶功能可以协助司机避免碰撞或是遭遇交通事故,但司机还是必须随时留意驾驶状况与路况。”
“自动驾驶”成为汽车行业竞相争夺的制高点是由于美国豪华电动汽车品牌Tesla(特斯拉)的巨大成功。
截止目前,特斯拉市值达到2767.51亿美元成为远超丰田汽车1726.36亿美元市值的世界第一大汽车品牌。
特斯拉的市值效应不仅反映了投资者对电动汽车未来的无限看好,也在于其对家庭清洁能源的追求。
正如特斯拉所言,“Tesla?正在通过电动汽车、太阳能电池板以及适用于家庭和企业的综合可再生能源解决方案,加速世界向可持续能源的转变。”
“大屏”创造智能
目前,特斯拉在售的车型有特斯拉Model?S、Model?3、Model?X和Model?Y,售价从29万元到100万元人民币不等,其时尚的外观、简洁的内饰等似乎都在表达这个时代的特征。
当然,电动汽车仍是它最具价值的核心。而最具个性的就是它创造性地将“大屏幕”引入汽车当中,开创了属于特斯拉的“智能汽车时代”。
特斯拉将汽车植入大屏幕,通过车身携带的众多传感器、控制器、软件等,将汽车控制按键高度集成在一起,通过大屏幕像触碰手机一样操控,把汽车变成了智能手机,带来了传统汽车所不具备的“前所未有”的驾驶体验。
大屏幕开启了汽车“智能化控制”时代,然而谈起特斯拉的智能化,它还有一项令人称赞的系统就是一套名叫“Autopilot?自动辅助驾驶”的功能:启用?Autopilot?自动辅助驾驶功能后,车辆能够在行驶车道内自动辅助实施转向、加速和制动。
具体功能包括,自动辅助导航驾驶、召唤功能、自动泊车、自动辅助变道和搭载支持完全自动驾驶功能的硬件。
然而,正是特斯拉宣传的自动辅助驾驶功能却频发意外事故,致使多名驾驶员伤亡。
自动驾驶事故纠纷不断
6月1日,中国台湾省嘉义县,一辆特斯拉Model?3在开启特Autopilot功能,将车速固定在了110km/h高速行驶时,竟径直撞向一辆翻倒在公路上的大卡车,当时天气晴朗,Model?3没有任何刹车。
2016年佛罗里达的高速公路上,几乎是同样的情景,一辆Model?S直接撞上一辆拐弯中的货车,结果如出一辙。
7月14日,美国亚利桑那州,一辆黑色特斯拉Model?S在本森附近的10号州际公路上与警车相撞,继而导致警车与一辆救护车发生连环追尾,车辆发生碰撞时,他正在使用特斯拉的Autopilot功能。
6月24日,深圳市南坪快速东行方向,一辆Model?3在开启Autopilot状态下跟车,与试图并道的渣土车发生碰撞,车辆未能识别到侧前方并线的渣土车。
特斯拉对事故车辆进行调取分析后表示,事发时车主的双手处于脱离方向盘的状态,并且没有检测到制动信号。最后判定为车主操作不当,而非Autopilot的问题。
今年7月30日,特斯拉对发生在日本Model?X诉讼做出回应,否认“特斯拉的自动驾驶技术和驾驶员辅助功能套件的专利缺陷。”有望将Model?X在启用Autopilot的情况下发生的车祸归咎于个人操作不当。
但是,接二连三的均牵涉特斯拉Autopilot系统而导致的事故,却直指特斯拉宣传的这套自动辅助导航驾驶存在鲜为人知的问题。
特斯拉Autopilot自动辅助驾驶系统真的可以“自动”?
目前其处于什么级别呢?到底在何种情况下使用才能不因“Autopilot”发生事故呢?
特斯拉是否虚假宣传?
按照SAE?International(国际汽车工程师协会)在2014年提出的自动驾驶汽车分级标准中对Level?2级的定义“车辆对方向盘和加减速中的多项操作提供驾驶,人类驾驶员负责其余的驾驶动作”和Level?4级的定义“由车辆完成所有驾驶操作,人类驾驶员无需保持注意力,但限定道路和环境条件”来看,特斯拉Autopilot系统仍处在Level?2级别。
Level?2级,主要是减少驾驶员的操作负担,驾驶员还是要接管方向盘,并像驾驶普通汽车一样驾驶。
可以看到,特斯拉在功能描述中也强调“辅助”这个词,所以特斯拉并没有实现“完全自动驾驶”的能力。
但是,其官方又将其定义为“完全自动驾驶”能力下的功能,以特斯拉Model?S为例,其在官方宣传中称“每辆新款?Model?S?均标配先进的完全自动驾驶硬件,目前已实现?Autopilot?自动辅助驾驶功能,”就容易让人产生歧义。
同时,根据自动驾驶等级分类的定义来看,目前任何宣称的“自动驾驶”都需要特定场景,并仅能实现自动驾驶系统中算法所适用的情况。
众所周知,人为算法都是有局限性和边界的。
所以,在一系列超出特斯拉Autopilot系统算法之外的情况,驾驶员如果还想依靠它来自动驾驶汽车,就避免不了导致出现意外事故。
而在以上的事故中,驾驶员都存在过度相信和依靠特斯拉Autopilot驾驶的行为,最终因超出“特斯拉Autopilot系统场景范围”而酿成悲剧。特斯拉也靠此项条件,否认了有设计上的错误,把事故归咎于司机操作不当。
不过从这一点看,足以证明特斯拉宣称的“Autopilot?自动辅助驾驶”并不可靠。
在实际使用中,驾驶员仍需像平时驾车一样,注意力集中并随时准备进行人为干预,只有这样才不会因“技术误判”而导致无法挽回的损失。
本文来源于汽车之家车家号作者,不代表汽车之家的观点立场。
声明:本站所有文章资源内容,如无特殊说明或标注,均为采集网络资源。如若本站内容侵犯了原著者的合法权益,可联系本站删除。