導讀:現(xiàn)行的自動駕駛系統(tǒng)分為六個級別,Level 0—Level 5,從“僅提供提醒”到“無需駕駛員的全自動駕駛”,特斯拉的自動駕駛系統(tǒng)已經(jīng)可以達到L5,并且谷歌、百度等公司還在不斷的跟進自動駕駛系統(tǒng)開發(fā)。
“一輛高速行駛的列車駛來,列車前面有兩條軌道,正常行駛的軌道上被綁著五個人,而另一條軌道上綁著一個人;你的手中有一根操控桿可以控制列車的行駛軌道,如果不拉下操縱桿,列車將撞上五個人,另外一條軌道的一個人將會得救;如果拉下操縱桿,列車將撞向一個人,正常行駛軌道上的五個人將會得救。如果是你,將怎樣選擇?”
聞名于哲學界的“電車難題(Trolley Problem)”在自動駕駛汽車時代”,將不再只是一個哲學問題,而是每一個自動駕駛系統(tǒng)需要面對的真實問題,系統(tǒng)將決定在發(fā)生事故時撞向誰、保全誰。
現(xiàn)行的自動駕駛系統(tǒng)分為六個級別,Level 0—Level 5,從“僅提供提醒”到“無需駕駛員的全自動駕駛”,特斯拉的自動駕駛系統(tǒng)已經(jīng)可以達到L5,并且谷歌、百度等公司還在不斷的跟進自動駕駛系統(tǒng)開發(fā)。
(源自 :為什么自動駕駛需要5G?網(wǎng)優(yōu)雇傭軍)
但是當自動駕駛系統(tǒng)達到“全自動駕駛”時,系統(tǒng)的開發(fā)者就要認真考慮多種兩難的情境:當自動駕駛汽車處于“電車難題”情況下要怎樣選擇?在極端情況下,自動駕駛系統(tǒng)會選擇拯救年長者還是拯救青少年?而當不可避免的事故發(fā)生時,法律將怎樣判定肇事責任?
1、意外來臨時,人類會如何選擇
麻省理工大學在2016年開發(fā)出了“道德機器(Moral Machine)”問卷測試網(wǎng)頁,通過問卷的方式調(diào)查全球各地的人在假定的 “電車難題”中如何做出選擇。在問卷之中,有九種獨立情況需要受試者做出判斷,分別是:人類和寵物之間的選擇、多數(shù)人和少數(shù)人之間的選擇、年長者和年輕人的選擇、遵守交規(guī)的人和違反交規(guī)的人之間的選擇等九個分類。
人類道德選擇的共性
“道德機器(Moral Machine)”收集了來自233個國家的人做出的接近4000萬個選擇數(shù)據(jù)并進行分析,并且將分析結(jié)果發(fā)表到了Nature上。
研究發(fā)現(xiàn)了一些全球普遍的選擇傾向,比如受訪者較普遍地選擇了保護人類而不是其他動物;較普遍地選擇保護多數(shù)生命而不是少數(shù);較普遍的選擇保護青少年而不是年長者;較普遍的選擇保護遵守交規(guī)的人而不是違反交規(guī)的人。
(選擇偏向表 版權(quán)所有:Nature)
人類道德選擇差異
除此之外,研究顯示在不同的國家和地區(qū),人們選擇也出現(xiàn)了很大的差異。本論文中,將所有的參加調(diào)查樣本分成了三個集群:第一,西部集群(Western),主要包括北美和歐洲,以天主教和傳統(tǒng)基督教文化為主的集群;第二,東部集群(Eastern),主要包括中國和亞洲國家,以儒家文化為主的集群;第三,南部集群(Southern),主要包括拉丁美洲和法屬海外地區(qū)。
(不同地區(qū)的選擇偏向 版權(quán)所有:Nature)
根據(jù)雷達圖可看出,來自不同地區(qū)的人的選擇存在差異;比如,其一,西部集群和南部集群傾向于保護年輕人,而東部集群這種傾向則不明顯;有可能是因為東部集群的“敬老”文化”的影響;其二,南部集群傾向于保護社會地位高的人,并且遠超西部集群和東部集群。或許和南部地區(qū)的集權(quán)統(tǒng)治和軍閥當政有關(guān)系;當進行了地區(qū)分類之后,還有一些奇怪的傾向,比如說,南部集群傾向于保護動物而不是人類。
由此可以預見的是,在未來自動駕駛法制化進程中,首先我們需要一套所有人類達成共識的基本準則(比如說優(yōu)先保護人類生命),并且通過聯(lián)合國或者其他國際組織讓其法制化,基本準則就相當于自動駕駛領(lǐng)域的憲法,其他自動駕駛相關(guān)的法案不得違背基本準則。
然后各個國家可以根據(jù)每個地區(qū)使用者的特殊需求來制定不與基本準則相沖突的補充法案,通過法律手段來規(guī)范自動駕駛中出現(xiàn)的部分“電車難題”。
與此同時,各國的自動駕駛技術(shù)供應商也需要按照各個國家地區(qū)的不同法律來對自動駕駛系統(tǒng)進行定制設置,對每一套產(chǎn)品進行合規(guī)檢查。
2、意外來臨時,法律如何應對?
由于自動駕駛的發(fā)展還處于初期階段,各國政府都在積極制定法律法規(guī),美國德國等政府已經(jīng)承認自動駕駛系統(tǒng)的合法地位,開始對自動駕駛汽車的道路測試等環(huán)節(jié)進行規(guī)范(騰訊研究院,2018),中國政府也已經(jīng)開始積極籌備自動駕駛立法工作;但世界上極少有關(guān)于自動駕駛汽車的道德選擇的法律規(guī)范。
截至今天,世界上唯一一份提供官方自動駕駛汽車道德官方指導的文件是德國聯(lián)邦運輸及數(shù)字基礎設施部門在2017年6月發(fā)布的《German Ethics Commission on Automated and Connected Driving》中文譯名(暫):《德國道德委員會關(guān)于自動互聯(lián)化駕駛的指導準則》(后簡稱《準則》)。
《準則》中首次嘗試對部分自動駕駛涉及的道德難題給出官方解答:
第七條中明確地指出,在極端情況下,自動駕駛系統(tǒng)需要將人類的安全置于首位,高于財產(chǎn)和動物安全;
第九條指出,在車禍不可避免的情況下,自動駕駛系統(tǒng)中任何基于個人特征的選擇傾向(比如:年齡、性別、身體和心理狀況等)都是禁止的;自動駕駛系統(tǒng)在移動中產(chǎn)生危險時不能夠犧牲不相關(guān)的第三方。
這兩個條款意味著:其一,當意外發(fā)生時系統(tǒng)會盡全力保護乘車人和行人的安全甚至可能會犧牲動物安全;其二,自動駕駛系統(tǒng)不被允許在意外來臨時做出道德判斷,比如選擇保護年輕人或者年長者,而且在車禍不可避免時,也不能夠選擇性地“犧牲”行人,不論行人是否違反交通規(guī)則。
第七條背后體現(xiàn)的是對人類生命權(quán)的保護和人道主義精神,具有普世意義,值得未來其他法案的借鑒。而第九條則要求自動駕駛系統(tǒng)不能在意外來臨時做出道德判斷,比如選擇保護年輕人或者年長者,而且不能夠選擇性地“犧牲”行人。本條法案排除掉了很多“電車難題”,但是在自動駕駛系統(tǒng)的實際運行中缺乏一定的指導意義。
在道德難題之外,《準則》還對自動駕駛的其他方面進行了規(guī)定:
第十二條規(guī)定,公眾有權(quán)充分了解自動駕駛領(lǐng)域的新技術(shù)和自動駕駛技術(shù)在不同駕駛情況下的應用;
第十五條規(guī)定,車輛所有者和駕駛者有權(quán)決定是否要將本車產(chǎn)生的自動駕駛數(shù)據(jù)分享或者給第三方使用等。
這兩條規(guī)定規(guī)范了公眾的知情權(quán)和數(shù)據(jù)決定權(quán)等基本權(quán)利,《準則》中還有針對模糊情況的規(guī)范,本文暫不贅述。
《準則》為各國的自動駕駛立法提供了一個有效參考,但是依然沒有能夠具有法律效力,并且沒有得到全球的普遍認可。
3、意外來臨時,自動駕駛系統(tǒng)會怎么做?
在各國立法尚不完善的情況下,開發(fā)自動駕駛系統(tǒng)的公司已經(jīng)在悄無聲息地在算法中寫入了一些偏好,而這些偏好就將涉及到上文提及的道德判斷。
早在2014年時,Google就表示,Google的自動駕駛原型車會在撞擊中選擇“較小的物體”;在2016年,Google又表示,Google的自動駕駛系統(tǒng)會先保護行人,然后再選擇撞“較小的物品”。同在2016年,奔馳的高管曾表示,公司會“不惜一切代價的保護乘客安全”,這個表態(tài)引起了軒然大波,公眾認為公司無權(quán)做出生命抉擇;后來奔馳公司又表態(tài),他們的目標是“百分之百的避免事故”而不是做出道德選擇,風波才逐漸平息。
可想而知,公司普遍不愿意回答媒體或者大眾提出的關(guān)于自動駕駛系統(tǒng)道德選擇的提問,因為首先,大家擔心為時尚早;現(xiàn)在的系統(tǒng)還只能夠在行人、動物和騎車者之間進行判斷,甚至還不具備事故發(fā)生時迅速判斷個人特征的能力(比如:年齡、社會地位等);其次,沒有公司愿意搬起石頭砸自己的腳;在類“電車難題”中的任何判斷都將引起公眾地指責和質(zhì)疑,并且會直接影響到消費者的看法。
自動駕駛系統(tǒng)道德選擇背后涉及的是極大的倫理問題。在兩難問題中對任何一方的偏袒都會涉及到對另一方的歧視。比如:當自動駕駛系統(tǒng)優(yōu)先選擇男性時,女性還敢選擇自動駕駛汽車嗎?行走在馬路上的女性能夠安心嗎?如果武斷地對自動駕駛倫理問題做出判斷,將帶來極大的社會影響,并且剝奪某些群體的合法權(quán)益。
在自動駕駛飛速發(fā)展的時代,各家自動駕駛系統(tǒng)的最終目標還是從技術(shù)上消除交通事故或者將交通事故對人類的傷害降到最低。關(guān)于交通事故不可避免時的道德判斷標準,沒有公司或者個人有權(quán)力或者愿意決定處于危急關(guān)頭時任何一個人的性命,畢竟每個人都只有一次生的機會,而沒有一條生命是能被放棄的。
參考文獻:
1. Moral Machine測試 網(wǎng)址:http://moralmachine.mit.edu/
2. Edmond Awad, Sohan Dsouza, Richard Kim, Jonathan Schulz, Joseph Henrich, Azim Shariff, Jean-Fran?ois Bonnefon & Iyad Rahwan. The Moral Machine experiment. Nature 563, pages59–64 (2018)
3. Federal Ministry of Transport and Digital Infrastructure, Federal Republic of Germany. German Ethics Commission on Automated and Connected Driving. 2017
4. James Vincent, Global Preferences for Who to Save in Self-driving Car Crashes Revealed, The Verge. 2018
5. Hussein Dia, The Moral Machine: Navigating the ethical rules of autonomous vehicles, Swinburne University of Technology. 2018
6. 騰訊研究院. 自動駕駛發(fā)展指南.2018
7. 虎嗅 網(wǎng)優(yōu)雇傭軍. 為什么自動駕駛需要5G. 2018