首頁/ 汽車/ 正文

無人駕駛,你為什麼難以接受?

無人駕駛,你為什麼難以接受?

你願意乘坐無人駕駛車輛嗎?如果無人駕駛出錯率是0。01%,而自己駕駛出錯率是1%,你願意乘坐無人駕駛車輛嗎?如果你可以隨時修改無人駕駛車輛的行駛方案,你願意乘坐無人駕駛車輛嗎?

無人駕駛,你為什麼難以接受?

無人駕駛汽車

近日,特斯拉在美國德克薩斯州的一起車禍導致車內兩人死亡。據警方初步調查,該車輛駕駛位無人,可能處於無人駕駛狀態。

訊息一出,迅速引發熱議。無人駕駛帶來的技術與倫理問題再次引起人們的關注。

無人駕駛,即基於海量資料、超強計算和優秀演算法,利用人工智慧,透過使用攝像機、鐳射雷達、毫米波雷達和GPS等系統來感知周圍環境,決定最優行車路線,實現無人工干預的全自動駕駛。

無人駕駛有全部或相當一部分由計算機系統控制,一方面減輕了汽車駕駛者的工作,另一方面因為排除了人為干預,能夠減少許多因人為因素如疲勞、慌亂導致的錯誤和問題,大大提升道路交通安全。

但是,調查顯示,

全球仍有50%以上的人不接受或不願接受自動駕駛汽車。

人們認為,儘管無人駕駛技術已經遠遠優於自身的駕駛水平,但機器總是會出故障,哪怕只有千萬分之一的可能性,自己也絕不會接受無人駕駛技術。

為什麼人們明明知道無人駕駛更優,卻偏偏不願意採納?

這或許得從我們對演算法根深蒂固的“偏見”說起。

以無人駕駛為代表,演算法對社會生活、經濟活動的影響日漸深入,以過濾資訊、建構模型為手段,幫助人們降低認知負擔、提高認知效率。

但是,自演算法誕生起就一直有個奇怪的現象,人們總是拒絕採納演算法的建議。

研究與實踐發現,

哪怕知道演算法決策更優,人們依然堅持要自己做選擇。

Berkeley(2016)實驗證明,人們在執行預測任務時,一旦發現模型存在誤差,就會放棄使用模型預測的結果。

Kawaguchi(2021)發現,員工向自動販賣機投放產品時,往往會有演算法推薦最優的產品組合,但員工卻未必執行。

《哈佛商業評論》上的一篇報道《人們喜歡控制的錯覺》(People Like the Illusion of Control)提到:基於當前對大資料的研究,許多機器根據演算法推演的結果所給出的建議其實在很多方面已經優於人類頂級專家,但是一些專家還是認為機器演算法不靠譜,更願意相信自己的判斷。我們將這種傾向稱為

“演算法厭惡”。

演算法厭惡(algorithm aversion):演算法推薦比人類的判斷更好,但人類選擇了自己的判斷。

無人駕駛,你為什麼難以接受?

因為人們難以容忍不可避免的錯誤。

簡單來說,人們喜歡掌控感,而演算法卻被認為是更難以掌控的。

01

人們喜歡掌控感

掌控感,指個體對自己生活、工作、未來發展、外部關係、內在心理變化等各方面的掌控力。心理學家阿德勒認為,追求掌控感是人的本能。缺少對事物的掌控,可能陷入“無論怎麼努力都改變不了結果”的無助狀態,對自身價值產生懷疑,甚至導致嚴重的心理問題。

在決策過程中,人們也自然而然地希望能夠掌控決策過程和結果。人們需要知道為什麼做這樣的決策、決策會帶來什麼樣的結果,且享受擁有影響決策的權力。透過這樣的方式,人們認為自己可以且能夠掌控決策,獲得安全感和滿足感。

02

演算法比人工更難以受掌控

演算法被認為難以掌控的一個主要原因是存在“演算法黑箱”。演算法黑箱指算法系統中輸入資料與輸出結果之間存在著無法洞悉的“隱層”,即所謂“黑箱”(black box)。事實上,演算法黑箱遮蔽了資料處理和交易決策的執行過程;認知上,由於自身演算法素養和知識水平的限制,大多數人無法理解演算法驅動智慧決策並革新行政決策體制的應用邏輯。對於演算法,人們不知道結果從何而來,也沒有辦法控制(修改或最佳化)結果。

從另一角度來說,在錯誤必然存在的情況下,人們對演算法(較小)錯誤的容忍度將低於對人類(較大)錯誤的容忍度。預測者對演算法的不容忍之所以出現,是因為儘管人們認為決策必然會出錯,但他們相信人類有能力做到完美。換句話說,由於對演算法過程的模糊與不瞭解,人們認為演算法的結果是不可控制的,一旦演算法出錯,人們就會認為事情超出了控制;而人類自己的錯誤,卻因為對前因後果(自以為是)的瞭解,總被視為是可控制、可修改、可改進乃至可接受的。

無人駕駛,你為什麼難以接受?

給使用演算法的人們一點掌控感,人們可能會更願意使用演算法。

掌控感可以來自人們對演算法的瞭解、學習和掌握,更為巧妙的是,也可以透過對決策機制或多或少的改良。

一個方法是,

將人們的預先決策整合到演算法中。

日本東部鐵路公司在進行自動售貨機的飲料投放時,實現調研員工對飲料的銷量預測,再將該判斷整合到演算法中形成新的演算法,發現當演算法整合員工的預先決策時,員工會更願意遵從演算法(Kawaguchi, 2021)。

而另一個更為簡單的方法是,

允許人們在演算法給出結果的基礎上做一點點小的改動。

研究者為此進行了一系列的實驗。實驗中,學生需要對標準化的考試成績進行預測。一是選擇透過自身經驗或統計模型或自已預測一方面,部分學科被要求在之間進行選擇,而另一些則直接給出了這個選擇,但是允許修改統計預測高達10分。結果顯示,約3/4可以進行結果調整的學生選擇依靠模型決策;相比之下,只有1/3不能進行結果調整的人選擇依靠模型決策。在另一個實驗中,允許參與者修改演算法預測結果,但只允許修改2分; 有趣的是,這並沒有減少他們依賴模型的意願(Berkeley, 2016)。

研究表明,可以透過給予人一些控制權力(哪怕很微小),減少演算法厭惡。

無人駕駛,你為什麼難以接受?

但是,我們真的需要減少甚至消除演算法厭惡嗎?這是否意味著人們把所有判斷與決策都交給了演算法?

“我們對演算法‘討厭’或者認為演算法‘有害’的想法,毋寧說是我們對自己無法掌控未知事物的恐懼的對映。”(Carl Miller)

一方面,“人們之所以需要藉助演算法來解決問題,是因為需要藉助認知模型將認知負擔控制在合目的的範圍內”,演算法成為了助力人類決策不可或缺的武器。但另一方面,演算法建立起被一種全新的保密機制所危害的“黑箱社會”,這種機制掩蓋了影響我們生活的自動判斷,形成無法理解、難以挑戰的屏障。

或許,我們應該關注的,不是如何實現完美的演算法,而是

我們需要什麼樣的演算法,

以及,

演算法要求什麼樣的我們。

“我們需要加快步伐,想出以公正的方式評估-審查-演算法的方法。我們要能理解和解釋他們的決定。我們不想要最優演算法,我們想要一個足夠簡單的演算法,專家看了之後會說:‘別怕,不會有什麼瘋狂的事情發生的。’我認為我們需要做好準備,認真考慮如何把這些東西應用於社會日常,為它們在高風險的決策環境中一展身手鋪平道路。因此關鍵問題就在於,我們該如何除錯這些東西才能確保它們的決策質量好效率高。”(Jure Leskovec, The Death of the Gods: The new global power grab)

參考資料

[1]蔣舸。 作為演算法的法律[J]。 社會科學文摘, 2019(4):67-69。

[2]Berkeley, D。 J。, et al。 Algorithm aversion: people erroneously avoid algorithms after seeing them err。[J]。 Journal of Experimental Psychology General, 2015。

[3]Berkeley, D。 J。, Simmons, J。 P。, Massey, C。 。 Overcoming Algorithm Aversion: People Will Use Imperfect Algorithms If They Can (Even Slightly) Modify Them[J]。Management Science,2018,64(3):1155-1170。

[4]Carl Miller。 The Death of the Gods: The New Global Power Grab。 William Heinemann, London, 2018, 374 pages, ISBN 9781785151330。

[5]Kawaguchi K。 , When Will Workers Follow an Algorithm? A Field Experiment with a Retail Business[J]。 Management Science。 2021, 67。

無人駕駛,你為什麼難以接受?

文字

餘紅玉

編輯

肖強

稽核

李小玲 周藝婷

相關文章

頂部