特斯拉“驚魂一撞”,再現(xiàn)致命BUG
北京時間6月1日,本應順利迎來“兒童節(jié)”的我們,卻被一則來自海峽對岸的交通事故視屏所吸引。而后者能夠位于各大社交平臺,引發(fā)如此激烈討論的根本原因,或許還是由于肇事主角為目前經(jīng)常身處輿論漩渦之中的特斯拉Model 3。并且事故發(fā)生時,該車輛正處于Autopilot輔助駕駛系統(tǒng)開啟狀態(tài)。
從視頻來看,事故發(fā)生在早晨 6:36 分的中國臺灣1號國道上,一輛白色廂式貨車位于內側道路上發(fā)生側翻,車輛幾乎橫在道路中間。就在此刻,一輛疾馳而來的白色特斯拉Model 3,徑直沖向了側翻在地的白色貨車,最終前者車頭直至A柱部分幾乎全部侵入貨車車廂內。
幸運的是,貨車當時所拉的貨物應該為類似奶油的軟性材質,所以為特斯拉Model 3提供了較大緩沖空間。雖然其車頭部分損毀嚴重,但是駕駛員并未受傷。此外,根據(jù)視屏中道路高位攝像頭所拍攝的片段來看,Model 3在接近貨車之前曾有全力制動的動作,但依然以較高時速撞上了側翻車輛,甚至讓貨柜車向后挪動幾米。此外,事發(fā)前貨車司機已經(jīng)站在道路前方,搖手示意過往車輛注意,但好像并未起到警示作用。
最終,當?shù)鼐焦剂耸鹿实木唧w經(jīng)過,據(jù)特斯拉駕駛員黃先生表示,他的Model 3處于Autopilot開啟的自動駕駛狀態(tài),撞車時的時速約為110公里/小時,而他一看到卡車就全力踩下剎車,但是無論制動時間與制動距離都已不夠,以至于撞上卡車車頂。同時,警方在事故發(fā)生后也對黃先生進行了酒精檢測,結果顯示其并不存在酒駕行為。
事已至此,可以確定的是特斯拉“驚魂一撞”的主要原因還是由于其Autopilot輔助駕駛系統(tǒng)存在致命BUG所導致。同時,發(fā)生在臺灣的這起交通意外,也令我們回憶起幾年之前發(fā)生在美國本土的兩起類似事故。不同的一點在于,這兩起事故最終造成的嚴重后果是其駕駛員因此喪命。
時間軸拉回至2016年5月,美國佛羅里達州一位名叫Joshua Brown的40歲男子駕駛特斯拉Model S在Autopilot輔助駕駛系統(tǒng)開啟的狀態(tài)下,撞向了一輛正在馬路中間行駛的白色半掛卡車,Model S的車頭直接被“切掉”,駕駛員當場死亡。據(jù)了解,這也是特斯拉因為Autopilot所造成的第一起致死事故。
三年之后的2019年3月,依然位于佛羅里達,一輛特斯拉Model 3以110公里/小時的時速徑直撞向了一輛正在緩慢橫穿馬路的白色拖掛卡車。此時,Model 3同樣處在自動駕駛模式之下,駕駛員以及Autopilot系統(tǒng)均未作出任何規(guī)避動作,最終再次發(fā)生車輛被“切頭”的慘案,50歲男性駕駛員當場斃命。
而這兩起嚴重的致死事故,再次引發(fā)了用戶以及行業(yè)對于特斯拉自動駕駛系統(tǒng)可靠性的嚴重懷疑。之后特斯拉與Mobileye 決裂的原因之一,或許也是由于這兩起事故帶來的嚴重負面影響。并且迫于外界巨大的輿論壓力,特斯拉此后也修改了關于Autopilot的表述,不再強調“自動駕駛”。
其實,仔細觀察幾年之內接連發(fā)生的幾起事故不難發(fā)現(xiàn),三者所具有的共性均為,被撞車輛幾乎都處于靜止或慢速移動狀態(tài),被撞車輛車身上均存在大面積白色區(qū)域,且事故發(fā)生時特斯拉車主均開啟了Autopilot輔助駕駛系統(tǒng)。
由此足以證明,特斯拉的這套輔助駕駛系統(tǒng)在面對上述特定情景時,的確存在不可逆轉的漏洞,而這背后的原因,需要分兩方面來說。首先硬件層面,眾所周知目前特斯拉目前搭載的Autopilot輔助駕駛甚至更高級別的FSD系統(tǒng)都依賴同一套視覺解決方案,即全車8個攝像頭、12個超聲波傳感器與一個增強版毫米波雷達。
這套組合從感知層面來講,本身就有著先天缺陷。而病根則集中在,無論攝像頭的數(shù)量多少,它們雖然在識別動態(tài)物體時能力尚可,但是在面對靜態(tài)物體,尤其是形狀各式各樣的靜態(tài)物體時,就稍顯“力不從心”。除攝像頭外,毫米波雷達在面對靜態(tài)物體時的作用也很是有限,因為其本身的硬件特點就是在于測量速度與距離,對于形狀復雜的靜態(tài)障礙物識別能力并不高。
因此,在臺灣這起交通事故中,特斯拉Model 3的前部攝像頭在面對廂式貨車大面積白色區(qū)域,加之清晨強烈的陽光反射,幾乎很難識別其有效的外部特征。而在攝像頭“失責”之后,車輛的毫米波雷達同樣無法做到精細化識別,所以其Autopilot系統(tǒng)默認前方道路暢通無阻,并繼續(xù)以設定時速行駛,最終釀成悲劇。
其實,在此事故發(fā)生前,理想汽車CEO李想就曾在某社交平臺發(fā)表觀點,“目前攝像頭+毫米波雷達的組合像青蛙的眼睛,對于動態(tài)物體判斷還好,對于非標準的靜態(tài)物體幾乎無能。視覺在這個層面的進展幾乎停滯,哪怕是動態(tài),車輛以外的識別率也低于80%,千萬別真當自動駕駛來使用。”
的確,正如李想所說,無論特斯拉也好,國內眾多以L2級別輔助駕駛作為產(chǎn)品亮點自居的新勢力造車也罷,其系統(tǒng)由于先天硬件層面的缺失,在面對如此情景時或許都無法從容應對。那么究竟應該怎樣解決如此“槽點”?
記者在咨詢過自動駕駛領域的相關工程師后得知,就硬件層面而言,想要最大限度的避免各類奇葩事故的發(fā)生,激光雷達與高精度地圖成為了最好的應對方法。但是從特斯拉一直以來的自動駕駛技術路線來看,對于永遠以極致成本管控作為前提的前者而言,搭載現(xiàn)階段成本較高的激光雷達基本不存在可能。并且有相關消息表示,當下特斯拉內部對高精地圖的重視度依然不夠。
而造成該事故發(fā)生的另一原因,則在于特斯拉的算法層面。換言之,雖然特斯拉硬件上的確存在先天缺陷,但是通過其后天算法足夠的樣本訓練,加之自動駕駛芯片算力上的不斷進步,便可令當下這套傳感器方案的潛力,被進一步激發(fā)出來。例如,通過OTA升級當下特斯拉的輔助駕駛系統(tǒng)已經(jīng)可以識別靜止的雪糕筒,即使在此過程中依然會出現(xiàn)“小插曲”。
視線回到本次事故,特斯拉明顯沒有對這樣的特殊場景進行過數(shù)據(jù)訓練,進而無法識別出一部橫在道路上的白色廂式貨車。而記者在咨詢某視覺處理領域工程師的看法時,她認為:“如此極端情況的確是數(shù)據(jù)采集過程中的盲區(qū),遇到這類型的數(shù)據(jù)非常少,所以沒辦法觸發(fā)應急機制。”
所以后續(xù)特斯拉能否通過冗余的算法解決這類問題?答案或許是肯定的。但是前提是其愿意付出足夠多的時間、設備以及成本去搭建場地,投入更多的研發(fā)力量,采集到類似事故下的具體算法數(shù)據(jù),最終通過OTA升級使車輛具有相應的處理能力。
最后,在“聲討”特斯拉之余,必須告知所有人的一點,以當下的法規(guī)規(guī)定,如果車輛在L2輔助駕駛系統(tǒng)開啟階段發(fā)生相應事故,最終責任依然在駕駛者,而意外發(fā)生后大多提供輔助駕駛的主機廠是可以“免責”的。
觀看視頻不難發(fā)現(xiàn),該事故發(fā)生的另外原因,還是由于該駕駛員在行駛過程中的分心所導致,如果他能專注駕駛,提前發(fā)現(xiàn)前方障礙物,順帶接管車輛并留夠制動距離,完全可以避免慘劇的發(fā)生。畢竟,當下在L2級別輔助駕駛尚不完全成熟的階段,我們應該時刻記住“人”才是最高決策者。
