技術(shù)
導(dǎo)讀:在智能駕駛、自動(dòng)駕駛艱難的發(fā)展歷程中,要解決的遠(yuǎn)不止芯片、傳感器、車聯(lián)網(wǎng)等技術(shù)性問題,還有更多涉及法律和道德倫理的選擇問題。自動(dòng)駕駛?cè)嫫占?,理性層面的設(shè)計(jì)與感性層面的選擇,缺一不可。
在智能駕駛、自動(dòng)駕駛艱難的發(fā)展歷程中,要解決的遠(yuǎn)不止芯片、傳感器、車聯(lián)網(wǎng)等技術(shù)性問題,還有更多涉及法律和道德倫理的選擇問題。自動(dòng)駕駛?cè)嫫占埃硇詫用娴脑O(shè)計(jì)與感性層面的選擇,缺一不可。
去年3月,一輛Uber自動(dòng)駕駛汽車在亞利桑那州坦佩市的公共道路上與一名行人相撞,該行人在送往醫(yī)院后不治身亡。這是世界上首起被曝光的自動(dòng)駕駛車輛在公共道路上撞擊行人并致死的事件。據(jù)悉,這次Uber事故中車輛裝配了64線激光雷達(dá)、多個(gè)攝像頭和雷達(dá),該車輛的自動(dòng)駕駛系統(tǒng)當(dāng)時(shí)識(shí)別到了行人,但機(jī)器大腦“決定”不減速。有人猜測(cè)稱,該“決定”可能是因?yàn)橄到y(tǒng)算法認(rèn)為如果減速可能會(huì)給駕駛員造成嚴(yán)重傷害。由此可以看出,即便自動(dòng)駕駛汽車能夠解決目前面臨的所有技術(shù)難題,即便自動(dòng)駕駛技術(shù)不會(huì)在運(yùn)行過程出現(xiàn)紕漏,一旦自動(dòng)駕駛汽車上路也必然會(huì)面臨一些無法完美解決的倫理難題——囚徒困境與電車難題——發(fā)生事故是必然的。對(duì)此,人工智能的“大腦”設(shè)計(jì)可能會(huì)陷入無盡的矛盾中。
在智能駕駛、自動(dòng)駕駛艱難的發(fā)展歷程中,要解決的遠(yuǎn)不止芯片、傳感器、車聯(lián)網(wǎng)等技術(shù)性問題,還有更多涉及法律和道德倫理的選擇問題。自動(dòng)駕駛?cè)嫫占埃硇詫用娴脑O(shè)計(jì)與感性層面的選擇,缺一不可。
那么,“機(jī)器駕駛員”面臨未知的事故狀況如何權(quán)衡不同對(duì)象的生存幾率和生存價(jià)值?緊急狀況下優(yōu)先保護(hù)乘客還是路人?老人和年輕人的生命如何選擇?在設(shè)定機(jī)器事故算法時(shí),依據(jù)和原則是什么?由誰來決定算法原則和依據(jù)?不同的決策有什么不同的后果?這些都屬于自動(dòng)駕駛汽車事故算法的問題范疇。對(duì)此,汽車工程師、倫理學(xué)家以及各方學(xué)者眾說紛紜,借助經(jīng)典的思想實(shí)驗(yàn)如電車難題、囚徒困境等呈現(xiàn)自動(dòng)駕駛汽車可能遭遇的事故類型,分析其中涉及的倫理爭(zhēng)議,探析諸算法之間的優(yōu)劣對(duì)比。
決策者:自由模式還是強(qiáng)制模式
對(duì)于事故算法的決策者,討論的焦點(diǎn)是:從個(gè)人角度還是集體角度決定自動(dòng)駕駛算法的選擇。前者認(rèn)為每一位司機(jī)或乘客都有權(quán)對(duì)自己所乘坐的汽車進(jìn)行倫理設(shè)定;后者主張由全社會(huì)集體來強(qiáng)制決定事故算法的倫理設(shè)定。
康提薩、拉吉亞諾和薩爾托爾旗幟鮮明地為個(gè)人自由選擇模式辯護(hù)。他們認(rèn)為,當(dāng)遭遇不可避免的事故時(shí),自動(dòng)駕駛汽車進(jìn)行何種倫理選擇應(yīng)該由使用者或乘客做出,使用者或乘客作為事故的直接主體,有權(quán)做出結(jié)果導(dǎo)向性選擇。但緊急事故發(fā)生時(shí),人類無法在短時(shí)間內(nèi)做出理智抉擇,只能依靠本能反應(yīng),因此實(shí)際來說,自由模式的事故算法決策權(quán)可操作性不強(qiáng)。
哥格爾和繆勒認(rèn)為個(gè)人自由選擇事故算法會(huì)帶來囚徒困境,最終造成交通事故不降反升的后果,只有政府介入進(jìn)行強(qiáng)制性的倫理設(shè)定,以集體利益為導(dǎo)向,大部分群體利益最大化后才有利于大眾完全接受自動(dòng)駕駛。他們指出,政府應(yīng)該給自動(dòng)駕駛汽車生產(chǎn)商引入新的行業(yè)標(biāo)準(zhǔn),即最大化安全、最小化傷害——功利主義式的自動(dòng)駕駛汽車。不管是乘客還是車主都沒有決策權(quán),因?yàn)樵谄嚦鰪S前就已內(nèi)設(shè)事故算法。從維護(hù)社會(huì)利益最大化角度,由最能代表大多數(shù)人利益的群體來決定自動(dòng)駕駛的事故算法。
然而,無論是個(gè)人化還是強(qiáng)制性的集體倫理設(shè)定都面臨相當(dāng)多且頗具挑戰(zhàn)性的異議。
算法依據(jù):優(yōu)先保護(hù)
在具體的算法依據(jù)問題上,討論主要圍繞以下幾個(gè)方面進(jìn)行:乘客優(yōu)先,還是行人或其他利益相關(guān)者優(yōu)先?弱勢(shì)群體(老人、小孩、婦女/乞丐)優(yōu)先,還是優(yōu)勢(shì)群體(壯年男性/社會(huì)精英)優(yōu)先?多數(shù)人優(yōu)先還是少數(shù)人優(yōu)先?筆者認(rèn)為以上不同的社會(huì)群體,可以依據(jù)場(chǎng)景角色來劃分:一種是按照事故中角色進(jìn)行優(yōu)先選擇,另一種是根據(jù)社會(huì)角色的差異進(jìn)行優(yōu)先選擇。按照事故中角色進(jìn)行優(yōu)先選擇的事故算法又可分為功利主義的事故算法和自保主義的事故算法,大多數(shù)人認(rèn)為功利主義的事故算法更為道德,但市場(chǎng)調(diào)查卻顯示消費(fèi)者更愿意購(gòu)買置入了自保算法而非功利主義算法的自動(dòng)駕駛汽車。而按照社會(huì)角色的不同進(jìn)行優(yōu)先選擇的事故算法則面臨了要將人劃分為三六九等以及如何劃分的質(zhì)疑與困惑。
筆者觀點(diǎn)
2016年,麻省理工學(xué)院媒體實(shí)驗(yàn)室的研究人員啟動(dòng)了一項(xiàng)實(shí)驗(yàn)。他們建立了一個(gè)網(wǎng)站,了解人們希望無人駕駛汽車有怎樣的行動(dòng)模式,在網(wǎng)站中任何人都可以體驗(yàn)到多種不同的無人駕駛汽車場(chǎng)景。兩年后,研究人員發(fā)表在《自然》雜志上的一項(xiàng)研究表明,政治、經(jīng)濟(jì)、文化、歷史等差異都會(huì)影響人們對(duì)機(jī)器倫理選擇的看法。但該研究還發(fā)現(xiàn),世界各地的人趨向于在三個(gè)方面達(dá)成一致:優(yōu)先保護(hù)人類而非動(dòng)物、優(yōu)先保護(hù)年輕人而非老人、保護(hù)盡可能多的人。這些見解可以為機(jī)器倫理的國(guó)際準(zhǔn)則提供基礎(chǔ)——研究人員寫道,當(dāng)這些“危及生命的兩難困境出現(xiàn)時(shí)”,必須要有相關(guān)的國(guó)際準(zhǔn)則,那些討論不應(yīng)該局限于工程師和政策制定者,畢竟那些問題會(huì)影響到每一個(gè)人。
2018年,德國(guó)為自動(dòng)駕駛汽車制定了首個(gè)倫理規(guī)則。該規(guī)則提到,相比對(duì)動(dòng)物或財(cái)產(chǎn)造成的傷害,系統(tǒng)必須最優(yōu)先考慮人類安全;如果事故不可避免,禁止任何基于年齡、性別、種族、身體特征或其它區(qū)別的歧視;對(duì)于道德上模糊的事件,人類必須重新獲得控制權(quán)。
面對(duì)那些虛構(gòu)的關(guān)于自動(dòng)駕駛汽車事故的思想實(shí)驗(yàn),每個(gè)道德健全的理性人都會(huì)自發(fā)地就“我們?cè)撛趺醋觥毙纬尚拍?。然而某些調(diào)查數(shù)據(jù)顯示,我們的這種直覺是如此地不統(tǒng)一也不唯一:人們普遍認(rèn)為擁有功利主義式事故算法的自動(dòng)駕駛汽車最具道德性,但卻鮮有人想購(gòu)買置入了此種算法汽車。這種矛盾的心理和做法使得研究者們更傾向于理想的道德選擇來設(shè)置事故算法。而所謂理想的道德選擇又有其不能普遍化的理論假設(shè)、依賴某些成定勢(shì)的倫理直覺。在虛擬的思想實(shí)驗(yàn)中,可以用理想化的道德選擇做指導(dǎo),但現(xiàn)實(shí)的駕駛過程會(huì)面臨許多不能被解決的沖突和困境,在這種困境中,不論作不作為、哪種作為,都無法出現(xiàn)“最優(yōu)決策”?,F(xiàn)有的不同道德原則間的沖突、道德決策的復(fù)雜性以及人類道德判斷的情境化導(dǎo)致并非所有的道德和法律規(guī)則都適用于具體的事故情況,具體到乘客個(gè)人也會(huì)有不同的選擇,筆者認(rèn)為我們應(yīng)該綜合考慮多種因素,利用多種能力,分析各種不同狀況,尊重利益的主體相關(guān)者——乘客的自我選擇,即道德約束式事前尊重、法律限制式事后懲罰。