首頁/ 汽車/ 正文

自動駕駛被曝嚴重缺陷!973首席科學家呼籲:不要嘗試 L2以上功能

電子發燒友網報道(文/梁浩斌)去年8月,企業家林文欽駕駛開啟“自動駕駛功能”的蔚來ES8發生事故導致身亡,引起了大眾對於車企在“自動駕駛”宣傳上造成誤導的質疑。使得在早期大肆宣傳“自動駕駛”的一些車企,都開始在宣傳用詞上有所收斂,比如小鵬已經將原本官網上描述的“自動輔助駕駛系統”改成“智慧輔助駕駛系統”。

當然也有小部分頭鐵的企業依然將“自動駕駛”放在介紹頁最顯眼的地方,是誰在這裡就不提了。目前大部分帶有輔助駕駛功能的車型,都是L2級別的系統,但按照普遍認知中達到了“高度自動駕駛”程度的L4級系統,就真的安全嗎?

近日理想汽車CEO李想在微博發表了關於公司智慧駕駛研發的成績單,復旦大學計算機科學技術學院副院長、國家 973 計劃專案首席科學家楊珉教授在看到了李想的微博後,回覆並質疑了當前智慧駕駛系統的安全性。

自動駕駛被曝嚴重缺陷!973首席科學家呼籲:不要嘗試 L2以上功能

圖源:微博

“說實話,我們安全研究人員覺得自動駕駛安全性沒有想象的那麼香,我們最新研發的駕駛系統安全性測試平臺針對某L4級別系統測試後,小夥伴們紛紛倒吸一口零度以下涼氣,表示不要嘗試L2以上功能。”

在楊珉教授給出的例子中,演示了某L4級別無人駕駛汽車必然會發生碰撞的其中一個特定場景。

自動駕駛被曝嚴重缺陷!973首席科學家呼籲:不要嘗試 L2以上功能

當車輛在既定車道行駛,前方車輛突然有加塞動作時,車輛並未有減速動作,在此場景下必觸發碰撞。而如果是人類駕駛員遇到這種場景,一般會先在後面減速跟隨一段時間或閃爍大燈提醒前方車輛,確認安全後再透過。

雖然按照事故定責案例來看,責任主要在變道車輛上,但對於自動駕駛而言這樣100%發生事故的場景顯然是一個重大安全缺陷。而且這並不是孤例,楊珉教授還透露,測試系統僅在一週內就發現數百個碰撞的案例。難道自動駕駛真的是個偽命題?

智慧駕駛系統盲區多

由於真實路況複雜,儘管目前的智慧駕駛系統經過多年的發展,有足夠的真實場景用於機器學習訓練,但遇到個別特殊場景依然會出現無法識別的狀況。

自動駕駛被曝嚴重缺陷!973首席科學家呼籲:不要嘗試 L2以上功能

圖源:亞利桑那州公共安全部

比如在2020年7月,一輛特斯拉Model S在美國公路上開啟了Autopilot自動輔助駕駛系統時,無法識別前方白色的警車,在造成追尾的同時還波及到警車前方的一輛救護車。

自動駕駛被曝嚴重缺陷!973首席科學家呼籲:不要嘗試 L2以上功能

白色似乎是特斯拉自動輔助駕駛系統的一個盲區。同樣在2020年,中國臺灣嘉義縣的一輛特斯拉Model 3在高速公路上開啟Autopilot自動輔助駕駛系統時,沒有識別到前方因事故側翻在路上的白色貨車,毫無減速地撞上去。而調查結果顯示,當時系統將白色貨車錯誤識別成天空,因此並沒作出減速動作。

自動駕駛被曝嚴重缺陷!973首席科學家呼籲:不要嘗試 L2以上功能

另一方面,因施工或其他情況導致路面劃線不清晰時,系統同樣容易出現誤判。(如上圖)

自動駕駛被曝嚴重缺陷!973首席科學家呼籲:不要嘗試 L2以上功能

而上文楊珉教授給出的例子,其實現實中早已經有類似事件發生。此前在深圳南坪,一輛Model 3在開啟Autopilot自動輔助駕駛系統的情況下,由於最右車道被封,在右前方行駛的比亞迪渣土車提早打了轉向燈,並向Model 3所在的車道變線。但Autopilot系統並沒有停下,反而加速跟上前車,最終發生碰撞。

自動駕駛被曝嚴重缺陷!973首席科學家呼籲:不要嘗試 L2以上功能

不單是特斯拉,其他品牌的車型都出現過系統識別錯誤的事故。比如去年9月,一輛開啟了NGP(智慧導航輔助駕駛)的小鵬P7,在高速公路上追尾了一輛空載的掛車。原因很可能是因為掛車底盤高度太低而出現誤判。

自動駕駛被曝嚴重缺陷!973首席科學家呼籲:不要嘗試 L2以上功能

去年1月,在瀋海高速上一輛蔚來ES8在開啟NIO Pilot自動輔助駕駛功能的時候,撞上了因輪胎問題在高速公路最內側車道拋錨的五菱宏光。在車主提供的行車記錄影片中可以看到,當時的天氣狀況不太理想,雨勢較大。

當然,以上事故中,司機分神是其中一個重要原因之一,不過類似事件的頻發,也反映出智慧駕駛系統對於特定場景識別的盲區。

可能會有人認為,這些車企的智慧駕駛系統級別不高,一些自動駕駛公司的L4級別系統會有更好效果。確實,大多自動駕駛公司從一開始就往著完全自動駕駛的方向去研發,目前一些Robotaxi專案也開始落地,但從實際體驗上來看依然存在一些危險動作。

自動駕駛被曝嚴重缺陷!973首席科學家呼籲:不要嘗試 L2以上功能

比如百度Apollo的L4自動駕駛,在某博主體驗的過程中,車輛在透過人行橫道時沒有明顯減速,從普通駕駛員的角度來看,有多次危險動作出現。

儘管現實中可能是小機率事件,但對於汽車而言,無論發生的機率有多少,只要有可能發生,都會直接關係到乘員的生命安全,這也是為何車規級產品要求的缺陷率要達到0PPM(百萬分之0)。

自動駕駛還能不能成?

自動駕駛被曝嚴重缺陷!973首席科學家呼籲:不要嘗試 L2以上功能

圖源:工信部

去年8月,工信部發布了一份關於加強智慧網聯汽車生產企業及產品准入管理的意見檔案,其中最關鍵的一句話是:明確未經審批,不得透過線上等軟體升級方式新增或更新汽車自動駕駛功能。

而在給汽車推送自動駕駛功能前,“應當確保汽車產品至少滿足系統失效識別與安全響應、人機互動、資料記錄、過程保障和模擬模擬等測試驗證的要求。”這意味著在監管層面上,監管部門已經開始推進車企“自動駕駛”功能安全性方面的稽核。

但真的要實現純自動駕駛,可能不是某個車企依靠自己技術能夠做到的。在真實的交通場景中,車輛與車輛之間是互為黑盒子的關係,對於人類駕駛員而言,與其他駕駛員其實一直處於不斷互相判斷、互相試探的過程,在這個過程中的變數,不只是駕駛員對實時路面情況基於經驗的判斷以及反應速度,還有不同駕駛員的心理狀態。

這或許是目前業界對於完全自動駕駛誕生的時間節點並不樂觀的原因之一。因此,V2X一類的技術如今還難以大規模普及的情況下,純自動駕駛依然遙遙無期。

所以,未來要避免因智慧駕駛功能而出現的事故,重點還是在於人類駕駛員,從技術的角度來看,DMS(駕駛員監控系統)在未來的智慧駕駛功能上將會處於更加重要的地位,透過判定更加敏感的DMS來及時提醒駕駛員,確保駕駛員保持對路面的專注。只是,這跟自動駕駛的初衷似乎又有點相違背了。。。

而對於目前自動駕駛的小機率缺陷,楊珉教授的這句話也引人深思:“時代的每一片雪花,落在每一個人身上都是一座大山。”

相關文章

頂部