最近,一篇論文報(bào)道了一項(xiàng)全球道德偏好調(diào)查,涉及無人駕駛汽車在不可避免的事故中應(yīng)該拯救哪一方。研究成果結(jié)合了全球參與者貢獻(xiàn)的4000萬個決策,或?yàn)橹贫軌虮簧鐣毡榻邮艿娜斯ぶ悄?AI)倫理標(biāo)準(zhǔn)提供參考信息。
無人駕駛汽車不僅應(yīng)該能夠?qū)Ш铰肪€,還應(yīng)該在不可避免的事故中獨(dú)自應(yīng)對道德困境。因此,有必要制定一套倫理準(zhǔn)則來指導(dǎo)AI系統(tǒng)處理此類場景。如果無人駕駛汽車一定會被廣泛使用,我們首先要確定社會普遍接受的道德標(biāo)準(zhǔn)。
麻省理工學(xué)院的伊亞德拉赫萬和他的同事們建立了一個名為“道德機(jī)器”的大規(guī)模在線調(diào)查平臺,統(tǒng)計(jì)世界各地人們的道德偏好。參與者被置于一個不可避免的事故現(xiàn)場,當(dāng)時一輛無人駕駛汽車正在雙向街道上行駛。每一個場景都會把行人和乘客置于不同的危險(xiǎn)之中,汽車可以選擇不變道或者轉(zhuǎn)向另一條車道。參與者必須選擇誰來保存并決定汽車的路線。這個實(shí)驗(yàn)記錄了大約4000萬個這樣的決定。
研究人員已經(jīng)確定了許多共同的道德偏好,例如拯救大多數(shù)而不拯救少數(shù),拯救年輕人而不拯救老年人,以及拯救動物。作者還發(fā)現(xiàn)了不同文化之間道德偏好的差異。例如,來自中美洲和南美洲國家、法國、前法國海外領(lǐng)土和目前法國領(lǐng)土的參與者表現(xiàn)出強(qiáng)烈的偏好,首先拯救婦女和強(qiáng)者。然而,來自收入差距較大國家的參與者在決定儲蓄對象時,往往會考慮自己的社會地位。相關(guān)論文于《自然》在線發(fā)表。
最后,研究人員指出,在讓汽車做出道德選擇之前,需要進(jìn)行全球?qū)υ?,將人們的偏好告知?shí)施監(jiān)督的道德算法設(shè)計(jì)公司和政策制定者。
標(biāo)簽:
免責(zé)聲明:本文由用戶上傳,與本網(wǎng)站立場無關(guān)。財(cái)經(jīng)信息僅供讀者參考,并不構(gòu)成投資建議。投資者據(jù)此操作,風(fēng)險(xiǎn)自擔(dān)。 如有侵權(quán)請聯(lián)系刪除!