儒家機(jī)器人倫理
作者:[美]劉紀(jì)璐
翻譯:謝晨云、閔超琴、谷龍
點(diǎn)校:項(xiàng)銳
來源:《思想與文化》第二十二輯, 華東師范大學(xué)出版社2018年 6 月出版
時(shí)間:孔子二五七零年歲次己亥正月廿九日辛丑
耶穌2019年3月5日
作者簡介:
[美]劉紀(jì)璐著**劉紀(jì)璐(JeeLoo Liu,1958—),女,美國加州州立大學(xué)富樂敦分校哲學(xué)系主任教授,主要研究領(lǐng)域及方向?yàn)樾撵`哲學(xué)、中國哲學(xué)、形而上學(xué)、道德心理學(xué)。
謝晨云(1995—),女,江西吉安人,華東師范大學(xué)哲學(xué)系碩士研究生,研究方向:中國道教。
閔超琴(1995—),女,江西新余人,華東師范大學(xué)哲學(xué)系碩士研究生,研究方向:先秦哲學(xué)、美德倫理學(xué)。
谷龍(1991—),男,湖南耒陽人,華東師范大學(xué)哲學(xué)系碩士研究生,研究方向:中國佛教。
項(xiàng)銳(1989—),男,江蘇鎮(zhèn)江人,華東師范大學(xué)哲學(xué)系碩士研究生,研究方向:科學(xué)哲學(xué)。
[摘要]本文探究在所謂“人工道德主體”身上植入儒家倫理準(zhǔn)則的功能性。本文援引儒家經(jīng)典《論語》,思考哪些倫理規(guī)則可被納入機(jī)器人道德。本文也將對比康德型、功利主義型、儒家型這三類人工道德主體,考察它們各自的優(yōu)劣之處。本文認(rèn)為,盡管機(jī)器人并不具備人所固有的道德情感,如孟子所捍衛(wèi)的“四端”,但我們能夠借由儒家所強(qiáng)調(diào)的那種道德準(zhǔn)則來構(gòu)建機(jī)器人的道德倫理。隨著儒家倫理準(zhǔn)則的植入,機(jī)器人可以有功能性的道德,從而使它們具備成為人工道德主體的資格。
[關(guān)鍵詞]人工道德主體;儒家倫理;功利主義;康德倫理學(xué);阿西莫夫定律
本文的研究得到了復(fù)旦大學(xué)的資助。筆者曾作為“復(fù)旦學(xué)者”在復(fù)旦大學(xué)訪學(xué)一月。在此對于復(fù)旦大學(xué)哲學(xué)院的慷慨相助和訪學(xué)期間的思想交流,謹(jǐn)致謝忱。
導(dǎo)言
隨著人工智能技術(shù)的發(fā)展,智能的類人機(jī)器人很有可能在不遠(yuǎn)的將來出現(xiàn)在人類社會(huì)中。而它們是否真正具有人的智能,是否真正能夠像人類那樣思考,這還有賴于哲學(xué)層面的探討。但可以肯定的是,它們將能通過英國計(jì)算機(jī)科學(xué)家、數(shù)學(xué)家、邏輯學(xué)家圖靈所提出的人工智慧測試法(圖靈測試法)——也就是說,如果機(jī)器人可以成功誘導(dǎo)和它們對話的人類把它們當(dāng)作人類來看待,那么它們就可以被認(rèn)證為具有智能。也許有一天,智能機(jī)器人將廣泛成為我們社會(huì)中的成員,它們會(huì)主動(dòng)分擔(dān)我們的工作,照顧我們的老人,在酒店和賓館為我們服務(wù),在導(dǎo)航、軍事甚至醫(yī)療領(lǐng)域替我們做重要的決定。我們是否應(yīng)該為這些機(jī)器人配置道德準(zhǔn)則,教導(dǎo)他們辨明是非?如果回答是肯定的,那么怎樣的道德準(zhǔn)則才能夠塑造出合乎人類社會(huì)期許的人工道德主體(artificial moral agents)?
眾多人工智能設(shè)計(jì)者樂觀地認(rèn)為,人工道德主體的發(fā)展總有一天會(huì)獲得成功。在此前提之下,本文探究將儒家倫理準(zhǔn)則植入人工智能機(jī)器人是否可以造就能跟人類和平共存的人工道德主體。本文通過援引儒家經(jīng)典《論語》,來思考哪些倫理規(guī)則可被納入機(jī)器人道德。同時(shí)本文也將儒家型人工道德主體對比以康德道德準(zhǔn)則和以功利主義準(zhǔn)則建立的人工道德主體,考察它們各自的優(yōu)劣之處。本文認(rèn)為,盡管機(jī)器人并不具備人類所固有的道德情感,如孟子所捍衛(wèi)的“四端”,但我們能夠借由儒家所強(qiáng)調(diào)的道德準(zhǔn)則來構(gòu)建機(jī)器人,使它們成為我們可以認(rèn)可的道德主體。
對人工智能道德準(zhǔn)則的探究不是僅僅作為未來主義的腦力激蕩。M.安德森(M.Anderson)和S.安德森(S.Anderson)認(rèn)為:“機(jī)器倫理學(xué)讓倫理學(xué)達(dá)到前所未有的精細(xì)程度,可以引領(lǐng)我們發(fā)現(xiàn)當(dāng)下倫理學(xué)理論中的問題,從而推進(jìn)我們對一般倫理學(xué)問題的思考?!薄?】本文將證明:對于機(jī)器人道德的比較研究,可以讓我們看到討論人類倫理的一些理論瑕疵。
一、機(jī)器倫理的興起
讓機(jī)器人預(yù)先考量行為后果,然后自行做出系統(tǒng)性的道德選擇,這一點(diǎn)在目前看來依然遙不可及。然而,現(xiàn)今在人工智能機(jī)器的設(shè)計(jì)上已經(jīng)存在專門為機(jī)器做具體選擇而設(shè)計(jì)的指導(dǎo)原則,因?yàn)闄C(jī)器的一些抉擇會(huì)帶來許多道德后果。比如,我們可以對軍用無人機(jī)進(jìn)行編制,要是它偵測到在軍事目標(biāo)周邊地區(qū)有許多平民存在,是應(yīng)該立刻停止攻擊還是持續(xù)發(fā)動(dòng)攻擊。我們也可以對醫(yī)療機(jī)器人進(jìn)行編制,當(dāng)病人已經(jīng)進(jìn)入重癥末期而有突發(fā)情況,是讓它實(shí)施援救措施還是放棄進(jìn)一步的治療。托肯斯(Ryan Tonkens)認(rèn)為:“自動(dòng)機(jī)器會(huì)像人類那樣做出與道德相關(guān)的行為,因此,為慎重起見,我們的設(shè)計(jì)必須保證它們以合乎道德的方式來行動(dòng)?!薄?】因此,即使暫時(shí)還造不出“有道德的機(jī)器”,我們也必須考慮機(jī)器倫理。此外,我們所制定的機(jī)器倫理的版本,要能夠適用于未來的機(jī)器道德思考主體,而非僅僅應(yīng)用于機(jī)器人的設(shè)計(jì)程序。也就是說,機(jī)器倫理關(guān)心如何將道德準(zhǔn)則應(yīng)用于“人工道德主體”,而不是其設(shè)計(jì)者。
目前設(shè)計(jì)人工智慧機(jī)器有兩種截然不同的進(jìn)路,一種是“自下而上”,另一種是“自上而下”?!?】前者是讓機(jī)器從日常選擇所使用的零碎規(guī)則中逐漸發(fā)展出自己的道德準(zhǔn)則。設(shè)計(jì)者賦予機(jī)器一種處理匯總信息的學(xué)習(xí)能力,這些信息是機(jī)器在不同的情境下,對由自己的行動(dòng)所產(chǎn)生的結(jié)果的匯總。為了讓機(jī)器形成某種行為模式,設(shè)計(jì)者可以建立一個(gè)獎(jiǎng)勵(lì)系統(tǒng),鼓勵(lì)機(jī)器采取某些行為。這樣一種反饋機(jī)制能夠促使機(jī)器及時(shí)發(fā)展出自己的倫理準(zhǔn)則。此種進(jìn)路類似于人類在童年時(shí)期形成道德品性的學(xué)習(xí)經(jīng)驗(yàn)。相比之下,“自上而下”的進(jìn)路則是在機(jī)器身上植入能夠控制其日常選擇與行為的一般抽象的倫理規(guī)則。如果走這種進(jìn)路,設(shè)計(jì)者首先必須選擇一種倫理理論,分析“在計(jì)算機(jī)系統(tǒng)中執(zhí)行該理論所必需的信息和總體程序要求”,然后才設(shè)計(jì)執(zhí)行倫理理論的子系統(tǒng)?!?】不過,即使有預(yù)置設(shè)計(jì),機(jī)器在每個(gè)道德情境中還是需要根據(jù)倫理原則程序,通過推演來選擇最佳的行動(dòng)方案。這種由上而下的設(shè)計(jì)方式將會(huì)反映出規(guī)范倫理學(xué)內(nèi)部的爭論,因?yàn)椴煌膫惱砝碚摃?huì)制造出依據(jù)不同的道德準(zhǔn)則而思維的人工道德主體。本文將比較這一研究進(jìn)路中不同的理論模型,而不考慮執(zhí)行過程所需要的實(shí)際算法、設(shè)計(jì)要求以及其他技術(shù)問題。
根據(jù)M.安德森和S.安德森的觀點(diǎn),機(jī)器倫理學(xué)的目標(biāo)在于明確地定義抽象普遍的道德原則,使得人工智能在選擇或是思考自身行為的正當(dāng)性時(shí)可以訴諸這些原則?!?】他們認(rèn)為我們不可能為每一種可能發(fā)生的情形制定具體的規(guī)則?!盀闄C(jī)器設(shè)計(jì)抽象普遍的道德原則,而不是在每一個(gè)特定的情境中制定機(jī)器如何做出正確的行動(dòng),好處在于機(jī)器能夠在新情境,甚至新領(lǐng)域中做出正確的行動(dòng)?!薄?】易言之,我們希望人工智能夠真正成為人工道德主體,有自己的道德原則,同時(shí)基于這些原則做出道德考量,用這些原則建立自身行為的正當(dāng)性。因此,機(jī)器倫理學(xué)中至關(guān)重要的一步,就是選擇一組能夠植入人工智能的道德原則。
二、電車難題與不同的倫理學(xué)模型
鑒于我們目前還沒有真正有自主性、有意向性的機(jī)器人,對于它們在某種情境會(huì)如何行動(dòng)依然還是一種未來的假想,因此我們可以暫借人類倫理討論中的思想實(shí)驗(yàn)來討論不同的倫理原則會(huì)造成怎樣的倫理選擇。這個(gè)思想實(shí)驗(yàn)即是著名的電車難題。
標(biāo)準(zhǔn)版電車難題:
有一輛失控的電車正沿著軌道疾馳,在其前方的軌道上有五人來不及躲避。機(jī)器人安檢員(或司機(jī))可以對此進(jìn)行干預(yù):拉動(dòng)一個(gè)操作桿,把電車變換到另一軌道上。然而,另一條軌道上也有一個(gè)人。這里面臨的選擇是,犧牲一個(gè)人去救另五個(gè)人,還是不犧牲這個(gè)人而聽?wèi){那五人死去。機(jī)器人安檢員或司機(jī)是否應(yīng)該操作拉桿來制止災(zāi)難,還是應(yīng)該什么也不做?
天橋版電車難題:
機(jī)器人安檢員正站在電車軌道之上的天橋觀察電車交通情況。它看到橋下的電車正沿著有五人滯留的軌道疾馳,必須立即采取行動(dòng)干預(yù)。而在天橋上,機(jī)器人安檢員旁邊有一位身材魁梧的男子,他也注意到了同樣的情況。如果機(jī)器人把該男子推到軌道上以擋住電車,那五個(gè)人就可能免于一死,但是這男子則必死無疑。機(jī)器人應(yīng)當(dāng)這樣做嗎?
面對這兩種兩難困境,道德主體必須做決定,是認(rèn)為“拯救五個(gè)人的行為是不允許的,因?yàn)檫@一舉動(dòng)會(huì)造成傷害”,還是認(rèn)為“這一舉動(dòng)是被允許的,因?yàn)檫@一傷害只是行善導(dǎo)致的一種副作用”【7】。實(shí)驗(yàn)表明,人們在電車難題中通常會(huì)選擇犧牲一人去拯救另五人,卻不會(huì)選擇犧牲天橋上的男子去營救軌道上的另五人。在實(shí)驗(yàn)者看來:“這給心理學(xué)家出了一道難題:盡管在這兩種情境之間很難找到真正合理的差別點(diǎn),但究竟是什么原因使得幾乎每個(gè)人在電車難題上都選擇犧牲一人去拯救另五人,而在天橋難題中卻未選擇這么做?”【8】現(xiàn)在我們以這兩種情境作為我們的測試場景,來思考設(shè)計(jì)人工智能的不同倫理學(xué)模型各自會(huì)有的后果。
就人類的道德情境而言,電車難題看起來似乎有些夸張而且不切實(shí)際;然而,在人工道德主體的考量上,機(jī)器倫理有可能出現(xiàn)類似的問題。我們不妨設(shè)想未來的特斯拉(Tesla)汽車在自動(dòng)駕駛決定上加了一條主導(dǎo)的道德原則:如果傷害到人類是個(gè)不可避免的結(jié)果,那么,抉擇必須以盡量減少傷害的人數(shù)為第一原則。【9】如果一輛載滿學(xué)生的校車突然失控沖向一輛特斯拉汽車,而特斯拉汽車無法及時(shí)停車避免相撞,這輛特斯拉汽車應(yīng)該冒著司機(jī)的生命危險(xiǎn)而轉(zhuǎn)向去撞路中間的隔離帶呢,還是應(yīng)該繼續(xù)前行聽?wèi){兩車相沖撞呢?如果特斯拉的道德考量可能最終會(huì)犧牲它的駕駛?cè)?,那也許就沒人愿意購買一輛特斯拉了。這種預(yù)想情況和電車難題有些類似。在設(shè)計(jì)機(jī)器人的道德主體方面我們還可以設(shè)想其他很多跟電車難題類似的情形。因此,電車難題可以用來檢測我們的機(jī)器倫理。
(一)阿西莫夫機(jī)器人定律
“自上而下”機(jī)器倫理設(shè)計(jì)方向一個(gè)很好的范例就是阿西莫夫(Isaac Asimov)于1942年提出的機(jī)器人三大定律【10】:
[A1]機(jī)器人不能以其行動(dòng)傷害人,或因不作為而使得人受到傷害。
[A2]在不違反第一條定律的前提之下,機(jī)器人必須絕對服從人類給予的任何命令。
[A3]在不違反第一和第二定律的前提之下,機(jī)器人必須盡力保存自己的存在。
阿西莫夫后來追加了一條第零定律,優(yōu)先于以上三條定律:
[A0]機(jī)器人不得傷害人類整體,或因不作為使人類整體受到傷害?!?1】
第一定律與第零定律之間的區(qū)別在于,前者關(guān)注人類個(gè)體,而后者關(guān)注人類整體。第零定律優(yōu)先于第一定律,這就意味著:為了保護(hù)人類整體,機(jī)器人可以傷害人類個(gè)體。科幻小說中有運(yùn)用第零定律的例子:如果某些人類個(gè)體攜帶足以使人類滅亡的致命性傳染病毒,那么機(jī)器人就有義務(wù)消滅這些個(gè)體。這個(gè)道德原則表面上看來很有道理,然而,在實(shí)際應(yīng)用上則是極度有問題的,因?yàn)槿祟愓w這個(gè)概念作為道德理念極為抽象,在人類歷史上這個(gè)概念曾被用來作為很多邪惡行徑的借口,比如納粹分子以改良人種而殘害猶太民族,或是其他以改良人類整體為名的種族屠殺。因此,第零定律作為最高級別的機(jī)器人定律完全有可能廢除阿西莫夫三大定律。
用阿西莫夫三大定律來處理電車難題也顯然捉襟見肘。在標(biāo)準(zhǔn)版電車難題中,第一定律禁止機(jī)器人拉動(dòng)拉桿,因?yàn)檫@會(huì)傷害到另一軌道上的人;但該定律也不容許機(jī)器人袖手旁觀,因?yàn)樗牟蛔鳛闀?huì)導(dǎo)致軌道上的五人受到傷害。在天橋版中,機(jī)器人將胖男子推下橋的行為是絕對禁止的,因?yàn)檫@直接傷害了人類;但與此同時(shí),明明可以推下男子攔停電車,而機(jī)器人卻袖手旁觀,這就違背了第一定律的后半句要求。無論如何,這個(gè)機(jī)器人會(huì)處于沒有道德引導(dǎo)的盲目狀態(tài)。溫菲爾德(Alan Winfield)等人曾進(jìn)行過一系列試驗(yàn),試驗(yàn)中的“阿西莫夫機(jī)器人”肩負(fù)著救人的重任。試驗(yàn)設(shè)計(jì)了三種不同的情景。第一種情景只放置了“阿西莫夫機(jī)器人”,而它的任務(wù)只是保護(hù)自己。這時(shí)“阿西莫夫機(jī)器人”可以百分之百保證自己不掉入坑里。第二種情景增加了代表人類的機(jī)器人H,而第三種情景則包含了兩個(gè)代表人類的機(jī)器人H和機(jī)器人H2。在只有一個(gè)人類的情景中,阿西莫夫機(jī)器人可以成功地完成自己的任務(wù)。然而,如果(機(jī)器人H和機(jī)器人H2所代表的)兩個(gè)人類面臨掉進(jìn)坑中的危險(xiǎn),那么在近一半的嘗試中,“阿西莫夫機(jī)器人躊躇無助,結(jié)果兩個(gè)‘人類’都命歸黃泉”。【12】溫菲爾德等人相信,他們所設(shè)計(jì)的這個(gè)試驗(yàn)非常契合阿西莫夫的第一定律?!?3】因此,阿西莫夫機(jī)器人的失敗,表明阿西莫夫定律不足以處理較為復(fù)雜的道德情境。為了解決這個(gè)問題,我們需要引入其他規(guī)則來指導(dǎo)機(jī)器人如何在道德困境中做出正確的選擇。
在討論人類倫理規(guī)范的種種理論中,除了規(guī)范性道德原則的走向之外,還有品德倫理學(xué)、關(guān)懷倫理學(xué)的種種提案,對人類規(guī)范性道德來說,這也許是目前更普遍被接受的理路。但是機(jī)器人是否可以具有道德品德、道德情懷,或是如何建造有品德、有情感的機(jī)器人,都是很有困難也非常容易引起質(zhì)疑的議題。因此我們姑且不談。在討論機(jī)器人道德準(zhǔn)則的文獻(xiàn)中,康德倫理學(xué)或功利主義倫理學(xué)是最主要的范本。我們不妨對此二者進(jìn)行一番考察。在討論這兩種道德準(zhǔn)則時(shí),我們也不是討論整個(gè)康德道德哲學(xué)或是功利主義的各個(gè)層面,而是專就其理論中的道德準(zhǔn)則運(yùn)用在機(jī)器倫理建構(gòu)的后果作比較研究。
(二)人工道德主體的康德倫理學(xué)準(zhǔn)則
機(jī)器倫理學(xué)中主導(dǎo)的倫理模型之一,便是康德的道德哲學(xué)。許多機(jī)器倫理學(xué)家認(rèn)為康德的道德理論提供了一個(gè)可以讓“我們把倫理學(xué)成功應(yīng)用于自主機(jī)器人的最好機(jī)會(huì)”【14】。康德的規(guī)范倫理學(xué)是一種義務(wù)論,它在進(jìn)行道德判斷時(shí)訴諸人的責(zé)任感而非情感?!柏?zé)任是種規(guī)則或律令,與之相伴的是我們在進(jìn)行選擇時(shí)所感到的約束或動(dòng)因。”【15】我們不難理解為什么機(jī)器人倫理學(xué)自然會(huì)選擇康德道德哲學(xué):對于康德來說,人類的自身利益、欲望、自然傾向,以及諸如榮譽(yù)感、同情感與憐憫感之類的道德情感,這些都完全沒有道德價(jià)值??档抡J(rèn)為,即使某人在向其周圍傳播幸福時(shí)找到了自己內(nèi)心的喜悅,并且在別人對自己的工作表示滿意時(shí)而感到欣喜,無論上述行為多么正確或令人喜愛,它“依然沒有真正的道德價(jià)值”【16】。真正的道德行動(dòng)必須純?nèi)灰罁?jù)理性存在者的責(zé)任感。由于缺少感性,不會(huì)受到人類情緒和欲望的干擾,機(jī)器人將成為實(shí)現(xiàn)康德純粹理性的道德模式的理想對象。
康德的第一條絕對律令表述如下:
[D1]我應(yīng)當(dāng)永遠(yuǎn)不會(huì)行動(dòng),除非以這樣的方式,即我的行為準(zhǔn)則將成為普遍法則。【17】[另一個(gè)版本:行為的準(zhǔn)則必須是在選擇當(dāng)下行為準(zhǔn)則時(shí),同時(shí)認(rèn)知這個(gè)行為準(zhǔn)則可以成為普遍法則。]
準(zhǔn)則是一個(gè)人的主觀意志原則,而普遍法則是一種本質(zhì)上約束著一切理性存在者的道德律??档碌摹敖^對律令”基于以下假設(shè):個(gè)人的道德抉擇不是當(dāng)下的意氣用事,而是在對當(dāng)下特定情境進(jìn)行思量考慮后的結(jié)果,人類的道德選擇是伴隨著對特定情境的考量出現(xiàn)的,且這一考量與個(gè)人在處理臨時(shí)情況時(shí)所采用的個(gè)人原則相一致。也就是說,個(gè)人的道德抉擇是個(gè)理性的過程,而理性的第一條件就是一致性(矛盾是缺乏理性的一個(gè)表征)??档碌摹敖^對律令”將個(gè)人的主觀意志原則與普遍法則結(jié)合,不僅要求個(gè)人的內(nèi)在一致性(intrapersonal consistency),同時(shí)要求人與人之間的同一性(interpersonal agreement)。這一絕對律令的作用就像一條禁令:不要選擇不能普遍化的主觀意志原則,不要做出違背普遍法則的行為,比如因遭遇不幸而自殺,明知不能依諾歸還仍去借錢,沉溺于享樂而沒有發(fā)展自身天賦,或是在自身不會(huì)遭遇危難的情況下仍然拒絕幫助急需幫助的人。即使這種種行為在當(dāng)下是我們最有意愿去做的事,但從道德理性上考量我們?nèi)圆粦?yīng)該放任自己的行為。這種自律的道德,在康德看來,是人類道德的本質(zhì)。
在機(jī)器人倫理學(xué)方面,我們可以用康德的第一條絕對律令來制定這樣的機(jī)器人道德律:
[DR1]一個(gè)機(jī)器人的行動(dòng)必須遵守如下法則,即它所做的選擇在原則上應(yīng)能成為其他機(jī)器人的普遍法則。
由于機(jī)器人倫理學(xué)必須設(shè)計(jì)出一種讓機(jī)器人在個(gè)別情況下,能根據(jù)預(yù)定原則而做出決定的行動(dòng)程序,我們必須以情境倫理學(xué)的基礎(chǔ),在行動(dòng)過程中給予個(gè)案考量,但是這些主觀的行為準(zhǔn)則又必須能被普遍化。對人類來說,這種自律的行為是人類道德理性思考的結(jié)果,但是要讓機(jī)器人能做類似的考量才做選擇,而不是僅僅服從僵硬的程序法則,我們必須為機(jī)器人配置搜尋功能,即搜集每一情形中可能后果的數(shù)據(jù),并計(jì)算其結(jié)果,才能決定是否采取行動(dòng)或是采取何種行動(dòng)。換句話說,機(jī)器人倫理不得不接受道德后果論,而不是如康德所要求的道德動(dòng)機(jī)論。
如果說康德的第一條絕對律令可以起到禁令的作用,那么他的第二條絕對律令則給出了更具體的道德引導(dǎo):
[D2]應(yīng)當(dāng)以這樣的方式行動(dòng),即永遠(yuǎn)不能把人(自己或他人)僅僅當(dāng)成手段,而是永遠(yuǎn)視為目的。
這個(gè)律令表達(dá)人類存在的尊嚴(yán)性。我們永遠(yuǎn)不能把人僅僅看作達(dá)到目的的手段。人們有自由意志。把他們當(dāng)成達(dá)到目的的手段是對他們自主性的否定。(比如說綁架勒索的恐怖主義行為即完全違反這條律令,不管當(dāng)事人如何用政治理由來證明其行為的正當(dāng)性)。
就機(jī)器人倫理學(xué)而言,我們可以運(yùn)用康德的第二條絕對律令制定如下的機(jī)器人行為法規(guī):
[DR2]一個(gè)機(jī)器人必須如此行事,即永遠(yuǎn)不能把任何人僅僅當(dāng)成手段,而是永遠(yuǎn)視為目的。
前面提過在面臨電車難題困境時(shí),人們的典型反應(yīng)如下:在標(biāo)準(zhǔn)版中,一般人都選擇犧牲一個(gè)人去救另五個(gè)人,而在天橋版中,大多數(shù)人會(huì)拒絕把一個(gè)人從天橋上推下去以救軌道上的五個(gè)人。在標(biāo)準(zhǔn)版中,人們所使用的基本原則似乎更看重5∶1的人命比。但在天橋版中,為了使電車停止而把一個(gè)人推下橋去顯然違背了第二條絕對律令。格林(Joshua Greene)認(rèn)為:“人們在標(biāo)準(zhǔn)電車難題中的反應(yīng)是典型的后果論思維,而在天橋版本中的反應(yīng)則是典型的道德義務(wù)論?!薄?8】格林認(rèn)為,人們之所以會(huì)有不同的反應(yīng),是因?yàn)椤氨M管后果相似,但在近距離親手殺死一個(gè)人(如在天橋困境中)的想法比起沒那么直接(如在標(biāo)準(zhǔn)電車難題中操作拉桿)的想法具有更大的情緒影響”【19】。格林認(rèn)為,我們自覺的道德判斷其實(shí)是主觀潛意識對當(dāng)下情境的整體回應(yīng):“我們完全沒有意識到,我們是把潛意識中的覺知、記憶,以及情緒處理為合理的敘事,從而讓它們釋放到顯意識之中并做出回應(yīng)?!薄?0】可見理性道德判斷是由內(nèi)在情緒反應(yīng)來驅(qū)動(dòng)的。所以康德的義務(wù)論進(jìn)路其實(shí)不是理性主義,而是更接近情感主義的主張。格林稱其為“康德靈魂的秘密玩笑”。
不過,機(jī)器人或是其他人工智能都沒有潛意識或情感,也不會(huì)有來自下意識的情緒影響,所以它們的決定過程會(huì)跟人類很不一樣。我們現(xiàn)在可以考慮一下康德倫理學(xué)是否能使得機(jī)器人在面臨電車難題困境時(shí)做出和人類一樣的選擇。
很顯然的,在天橋版本中,機(jī)器人會(huì)拒絕把那名男子推下橋,因?yàn)檫@樣做將明顯違背DR2。所以這不必多慮。然而,在標(biāo)準(zhǔn)版本中,機(jī)器人的道德引導(dǎo)就不那么明確了。如果機(jī)器人依照在它看來可以通用于一切機(jī)器人的原則來行動(dòng),那么它可能無力做任何事。人類通常以一種自發(fā)、直覺的方式來判斷他們自身的行為準(zhǔn)則是否能夠成為普遍法則。但是,如果想讓機(jī)器人做出同樣的判斷,那么,在設(shè)計(jì)程式上要么給它裝備一個(gè)巨大的數(shù)據(jù)庫,其中包含了其他機(jī)器人以相同的方式行動(dòng)所造成的一切可能后果(因?yàn)闄C(jī)器人能夠判斷行動(dòng)對錯(cuò)的根本是后果論的思維),要么給它配備人類所擁有的直覺,可以當(dāng)下判斷對錯(cuò)。但是前者會(huì)有數(shù)據(jù)龐大而且不完整的困難,后者則要面對技術(shù)瓶頸,因?yàn)槿斯ぶ悄懿豢赡塬@得人類所具有的直覺本能。因此,康德的第一條絕對律令無法為機(jī)器人做道德抉擇提供一個(gè)充分的指導(dǎo)基礎(chǔ)。
在此,設(shè)計(jì)康德式人工道德主體碰到了一個(gè)根本性的悖論。康德的第一絕對律令基于其道德形而上學(xué)的理念,認(rèn)為所有的人都是自主的理性存在者。理性存在者是“目的王國”的公民,分享同樣的“共同法”,并遵守著他們自己所制定的普遍道德法則。他們是自主的,因?yàn)樗麄兪峭耆睦硇灾黧w,“平等參與共同體道德原則的制定”。【21】但是從其設(shè)計(jì)本身來看,人工道德主體就是一些服從于程序命令的機(jī)器。它們不會(huì)為自己立法,也不會(huì)因?yàn)楸舜耸瞧降鹊牧⒎ㄕ叨嗷プ鹬?。此外,它們還缺乏自由意志,而自由意志對于康德式的道德主體來說必不可缺。因此,托肯斯稱它們?yōu)椤胺纯档碌摹?。他說:“我們要求康德式的人工道德主體的行為符合道德,但事實(shí)上它們的發(fā)展違背了康德的道德,這使得它們的發(fā)展受到道德上的質(zhì)疑,同時(shí)也使得我們作為它們的創(chuàng)造者有點(diǎn)虛偽?!薄?2】因此,不僅將康德的倫理準(zhǔn)則應(yīng)用于人工智能是個(gè)問題,事實(shí)上創(chuàng)造人工道德主體本身從康德的角度來看就是不道德的行為。托肯斯認(rèn)為:“通過創(chuàng)造康德式道德機(jī)器,我們僅僅是把它們當(dāng)作手段,而不是當(dāng)作目的本身。按照康德哲學(xué),道德主體自身是目的,因此之故,他們應(yīng)當(dāng)被尊為目的。違背這一法則就是將主體僅僅當(dāng)作客體,被用作達(dá)到其他目的的手段?!薄?3】換句話說,即使我們能夠創(chuàng)造出遵守DR2的機(jī)器人,即便我們不把機(jī)器人算作人類之成員,這一創(chuàng)造活動(dòng)本身就已經(jīng)違背了康德的道德原則,因?yàn)檫@一活動(dòng)制造出純?yōu)槭侄危灰阅康拇嬖诘娜斯さ赖轮黧w。
(三)人工道德主體的功利主義倫理學(xué)準(zhǔn)則
另一個(gè)常見的方案是將功利主義倫理學(xué)準(zhǔn)則應(yīng)用于人工道德主體。簡單地講,功利主義原則以行為可能的后果來判斷行為的對錯(cuò):能夠促進(jìn)幸?;蚩鞓返男袨槭菍Φ?,而產(chǎn)生痛苦的行為則是錯(cuò)的。密爾(John Stuart Mill)認(rèn)為,唯有快樂本身具有內(nèi)在價(jià)值。它的價(jià)值在于人們的欲望。換句話說,“好的”等同于“可欲的”。密爾說:“要證明任何東西是可欲的,唯一可能的證據(jù)是人們實(shí)際上欲求它?!薄?4】所謂“好”的結(jié)果不過是人們欲求的事情,而“壞”的結(jié)果則是人們厭惡的事情。這種理論的基礎(chǔ)是古代的快樂論。不過根據(jù)德賴弗(Julia Driver)的看法:“自二十世紀(jì)初期開始,功利主義經(jīng)歷了多次修正。二十世紀(jì)中葉以后,它更多地被視為一種‘后果論’,因?yàn)閹缀鯖]有哲學(xué)家完全認(rèn)同古典功利主義的觀點(diǎn),尤其是它的快樂主義的價(jià)值理論?!薄?5】功利主義最大的特征是僅考慮會(huì)有多少人受到這個(gè)行為影響,而不考慮行動(dòng)者本人的個(gè)人利益。功利主義原則的標(biāo)準(zhǔn)表述如下:【26】
[U]一個(gè)行為正確的充足必要條件就是這個(gè)行為,比起行動(dòng)者可能采取的其他行為來說,能夠?qū)λ袝?huì)受到影響的人產(chǎn)生更大的利益,或是更小的傷害。
對于人工智能,我們可以將U改寫成UR:
[UR]在權(quán)衡了所有可能采用行為的后果之后,機(jī)器人必須選擇的行動(dòng)是對于所有會(huì)受到影響的眾人來說,或者能實(shí)現(xiàn)最大的利益,或者能阻止更大的損害。
以上的兩種準(zhǔn)則都是從后果論的角度來衡量行為選擇的正確性?,F(xiàn)在我們來看一下關(guān)于機(jī)器倫理學(xué)的后果論模式的一些研究。
圖盧茲大學(xué)(the University of Toulouse)的本尼馮(JeanFranois Bennefon)、俄勒岡大學(xué)(the University of Oregon)的謝里夫(Azim Shariff)與麻省理工學(xué)院(MIT)的雷邁(Iyad Rahwan)共同開展了一項(xiàng)研究,要求參與者對以功利主義倫理原則來設(shè)計(jì)的自動(dòng)駕駛汽車做出評價(jià):在功利主義的倫理準(zhǔn)則設(shè)計(jì)下,這種車子為了避免沖向一群行人而造成更大傷害,會(huì)寧愿犧牲自己和開車的主人(司機(jī))。這些學(xué)者的研究發(fā)現(xiàn),盡管參與者普遍肯定這種車輛所帶來的結(jié)果更好,但他們自己并不想購買這樣一種自動(dòng)駕駛汽車。研究的結(jié)論是,參與者“在道德偏好上壓倒性地認(rèn)同功利主義的自動(dòng)駕駛汽車,因?yàn)樗軐鋈藬?shù)降到最低”。【27】但是,當(dāng)被問及他們是否會(huì)購買這種功利主義的自動(dòng)駕駛汽車,參與者就沒有多少積極性了。研究者指出,“盡管參與者依然認(rèn)為功利主義的自動(dòng)駕駛汽車是最道德的,但他們更愿意為自己購置具有自我保護(hù)模式的汽車”?!?8】這種雙重標(biāo)準(zhǔn)產(chǎn)生了一種社會(huì)困境:“一般人傾向于認(rèn)為功利主義式的自動(dòng)駕駛汽車是對社會(huì)整體來說最好的設(shè)計(jì),因?yàn)檫@種模式的車子可以減低傷害率,使得社會(huì)中每個(gè)人都受益更多。但是人們又同時(shí)出于個(gè)人動(dòng)機(jī),只想乘坐會(huì)不計(jì)一切代價(jià)而保護(hù)他們自己的自動(dòng)駕駛汽車。因此,如果具有自我保護(hù)模式的自動(dòng)駕駛汽車和功利主義模式的自動(dòng)駕駛汽車同時(shí)進(jìn)入市場,幾乎沒有人會(huì)愿意選擇功利主義模式的自動(dòng)駕駛汽車,盡管他們卻希望別人這樣選擇。”【29】沒有政府的強(qiáng)力推動(dòng)和管制,這種功利主義模式的自動(dòng)駕駛汽車將不會(huì)出現(xiàn)在市場上。但是,如果政府采取強(qiáng)力推動(dòng),則可能出現(xiàn)對采用這一模式的更大阻力。換句話說:“政府管制汽車安全并采取功利主義的模式所引發(fā)的阻力,反而會(huì)使得汽車工業(yè)延遲通過推廣更安全技術(shù)的使用,結(jié)果造成的卻是更高的傷亡率。”【30】社會(huì)效益和個(gè)人利益之間的矛盾顯示了人工智能的功利主義模式的潛在問題。如果這些研究中的參與者會(huì)不情愿去購買功利主義模式的汽車,那么普通大眾也很有可能會(huì)因?yàn)樽岳睦矶种瓢压髁x倫理學(xué)應(yīng)用于為我們服務(wù)的道德機(jī)器人。
除了以上所述功利主義人工智能令人不滿意的地方,另外一個(gè)問題是,如果在我們的社會(huì)中存在這樣的人工道德主體將會(huì)帶來巨大的危險(xiǎn)。一般人在電車?yán)Ь硺?biāo)準(zhǔn)版和天橋版中的不同反應(yīng)表現(xiàn)出人們傾向于避免那些會(huì)明顯給他人帶來傷害的行為。一般人并不總是喜歡功利主義的思考方式,尤其是當(dāng)這種思考模式指引他們犧牲少數(shù)人的利益,而這些少數(shù)人包括他們自己、親人和熟人。除了一些個(gè)別的英雄舉動(dòng),很少有人會(huì)為了大多數(shù)人更大的利益或是更好的結(jié)果而去犧牲自己或是自己所愛的人。但另一方面,人工智能則沒有這樣的心理障礙。在UR的指導(dǎo)下,只要局部的摧毀可以帶來社會(huì)更高的利益,功利主義人工智能的機(jī)器人就可能會(huì)選擇摧毀。這個(gè)模式將面臨與阿西莫夫第零定律同樣的困境。
從人類與人工智能的差異,我們也看出功利主義永遠(yuǎn)也不會(huì)成為人類主要的道德原則。即使我們的道德思維訴諸功利主義原則,我們的情感、個(gè)人利益和其他考慮都會(huì)讓功利主義的思維變得“不純粹”。如果我們像人工道德主體那樣進(jìn)行純粹的功利主義道德考量,那么其結(jié)果對人類社會(huì)來說將是巨大的威脅。正如M.安德森和S.安德森所指出,功利主義會(huì)“侵犯人權(quán),因?yàn)樗梢誀奚鼈€(gè)人以獲得善的更大凈值。功利主義也違背我們對于正義,即對‘什么是人們所應(yīng)得的’的看法,因?yàn)槿藗兯鶓?yīng)得的是反映其過去行為的價(jià)值,但是功利主義對行為對錯(cuò)的判斷卻完全取決于行為的未來結(jié)果”?!?1】功利主義在規(guī)范倫理學(xué)中仍有吸引力,也許正是因?yàn)槿藗儚膩聿粫?huì)完全地、絕對地遵從功利主義的規(guī)范。
三、儒家機(jī)器人倫理
當(dāng)今儒家學(xué)者具有的共識是,儒家倫理并不是一種規(guī)則引導(dǎo)的規(guī)范倫理,而是一種德性倫理,注重培養(yǎng)道德主體的道德品質(zhì)和善良性格。在設(shè)計(jì)機(jī)器人的道德抉擇過程中,我們必須要把儒家倫理轉(zhuǎn)化為一種可運(yùn)用、可踐行的道德規(guī)則。因此,我們必須對儒家道德規(guī)則進(jìn)行一番新的解讀,從《論語》中提煉出可以加在人工智能設(shè)計(jì)中的道德律令。【32】
《論語》中有很多被高度重視的美德,它們可以被轉(zhuǎn)化為儒家機(jī)器人倫理學(xué)的道德規(guī)則。本文挑選了三種主要的美德:忠(loyalty)、恕(reciprocity【33】)、仁(humanity)。之所以選擇前兩種美德,是因?yàn)榭鬃又匾牡茏又辉诱f,忠恕是夫子的一以貫之之道(《論語·里仁》【34】)。之所以選擇第三種美德,是因?yàn)樵谡麄€(gè)儒家傳統(tǒng)中“仁”是最重要的美德,孔孟均重視它,后來的宋明儒家還對此作了進(jìn)一步闡發(fā)。
孔子對于“忠”言之甚詳。它是孔子的“四教”之一(《述而》),并且和“恕”一起構(gòu)成了孔子的一以貫之之道(《里仁》)。在個(gè)人道德培養(yǎng)方面,孔子說君子把“忠”和“信”作為第一原則(《學(xué)而》、《子罕》)。弟子問,如何崇德辨惑,孔子建議說:堅(jiān)持忠信,“徙義,崇德也”((《顏淵》)?!爸摇睂τ趪抑卫硪埠苤匾???鬃痈嬖V魯國的國君,要想百姓忠,君自身就必須“孝慈”(《為政》)??鬃痈嬖V宋定公,“君使臣以禮,臣事君以忠”(《八佾》)。但“忠”不是盲目順從,而是要向君“提建議”(誨)(《憲問》)。弟子問:“令尹子文三仕為令尹,無喜色,三已之,無慍色。舊令尹之政必以告新令尹,何如?”孔子回答說:“忠矣?!鲍ā豆遍L》)弟子問政,孔子說:“居之無倦,行之以忠?!鲍ā额仠Y》)上述例子表明,在孔子看來,“忠”既是私德又是公德:無論是修身,還是參與公共事務(wù),“忠”都是至關(guān)重要的。
筆者曾指出:“忠并不是一種直接針對他人的關(guān)系;相反,它指向一個(gè)人所承擔(dān)的角色。在這個(gè)意義上,忠可界定為‘做應(yīng)做的’或‘忠于角色’。換句話說,社會(huì)角色不只是社會(huì)任務(wù);它還是道德任務(wù)?!矣谀橙说慕巧馕吨?,能夠做出與道德義務(wù)相應(yīng)的行動(dòng),而道德義務(wù)則伴隨著社會(huì)角色。因此,‘忠’是忠于一個(gè)人的道德義務(wù),履行一個(gè)人的角色所規(guī)定的社會(huì)責(zé)任?!薄?5】這一解釋可以得到進(jìn)一步的支持:孔子建議弟子“與人忠”(《子路》)。這里的“人”不限于君,還包括朋友和陌生人。《左傳·昭公二十年》記載孔子言:“守道不如守官?!薄暗馈碑?dāng)然是士人知識分子的最高目標(biāo),但是并不是每個(gè)人都可以事事以道為主。如果每個(gè)人都能善盡職守,盡心盡力,那么道行天下也就不是遙不可及的目標(biāo)了?!墩撜Z》里孔子也強(qiáng)調(diào):“不在其位,不謀其政?!鲍ā短┎罚┇寮覐?qiáng)調(diào)名正言順,角色之名定位角色之職。越俎代庖常常造成職責(zé)混亂,是非不明。這個(gè)固守職分,不干預(yù)他事的道德準(zhǔn)則對于人類有用,對于機(jī)器人來說尤其重要。
根據(jù)對“忠”這一美德的上述解釋,我們就有了儒家機(jī)器人倫理的第一條道德原則:
[CR1]機(jī)器人的首要職責(zé)就是履行指派給它的角色責(zé)任。
表面上看來,這一道德準(zhǔn)則似乎微不足道:我們設(shè)計(jì)機(jī)器本來就是要它完成任務(wù)的。但是,這個(gè)律令其實(shí)具有第一要位:我們所討論的是有可能成為全知全能的“機(jī)器神”,在無法由程序員事先預(yù)測所有情境中機(jī)器人所可能做出之判斷的情況下,我們需要對這些可能的情形有所防備。我們不能給予人工智能如神一樣的超人能力,擁有對任何人與事的所有決定權(quán)。我們需要先界定它們的職權(quán)范圍。CR1建立了明確的分工體制:提供健康服務(wù)的機(jī)器人應(yīng)專門忠于提供健康服務(wù)的角色,而不是去判斷病人的生命值不值得救,或者判斷是否要幫助病人實(shí)現(xiàn)安樂死的愿望。無人自動(dòng)駕駛汽車應(yīng)履行保護(hù)乘客安全的職責(zé),而不應(yīng)該選擇自動(dòng)撞樹、犧牲乘客,以避免沖向一輛校車而發(fā)生災(zāi)難性的悲劇。這樣的決定超出各個(gè)人工智能被設(shè)計(jì)的角色。因此角色定義是建立人工道德主體的第一步。
《論語》中另一個(gè)重要的德行是“恕”。關(guān)于“恕”,孔子稱其“可以終身行之”,并對其作了進(jìn)一步規(guī)定:“己所不欲,勿施于人。”(《衛(wèi)靈公》)另一處,弟子子貢說:“我不欲人之加諸我也,吾亦欲無加諸人?!笨鬃痈嬖V他:“非爾所及也?!鲍ā豆遍L》)從這兩處看,恕的內(nèi)涵被具體定義為一種人際交往中所體現(xiàn)的風(fēng)度和心理狀態(tài)。相對于基督教的金律“你們愿意人怎樣待你們,你們也要怎樣待人”,儒家的“恕”觀念經(jīng)常被稱作“負(fù)面形式的金律”,因其禁止人們做什么,而不是具體命令人們做什么。筆者曾指出,“恕”的這種形式優(yōu)于基督教的金律,因?yàn)槿藗兯挥谋热藗兯母哂衅毡榈幕A(chǔ)?!耙话愣?,我們不希望別人羞辱我們,嘲笑我們,偷我們的東西,傷害我們,或者以任何方式虐待我們。因此,我們理應(yīng)不要以這些方式虐待別人。即便我們愿意別人以某種方式對待我們,儒家金律也沒有建議我們以同樣的方式對待別人。因此,它避免了基督教的金律所碰到的將主觀偏好強(qiáng)加于別人的問題?!薄?6】
然而,就機(jī)器人倫理而言,我們會(huì)遇到機(jī)器人缺乏意愿的問題。若機(jī)器人對于自身沒有任何意愿,那么它們?nèi)绾卧u估自己行為的后果是否是他人(其他人類)不想施諸于己的呢?我認(rèn)為這個(gè)問題可以通過在設(shè)計(jì)時(shí)加入一個(gè)普遍人類偏好的計(jì)算程序來解決。美國哲人普特南(Hilary Putnam)曾經(jīng)建議運(yùn)用功能主義所使用的方法,將一定的偏好作為機(jī)器的“偏好功能”植入機(jī)器中。能夠做這樣判斷的機(jī)器首先應(yīng)該具備對人類偏好的局部排列和一套歸納邏輯(也就是說,機(jī)器必須能夠從經(jīng)驗(yàn)中學(xué)習(xí)),以及某些“痛覺傳感器”(比如,監(jiān)測機(jī)器身體的傷害、危險(xiǎn)溫度或危險(xiǎn)壓力的常態(tài)化工作的傳感器等),而且“某些特定范圍內(nèi)的輸入信號可以在機(jī)器的偏好功能或行動(dòng)指令排列為具有高的負(fù)價(jià)值”?!?7】按照這種方式,人工智能主體可以對傷害其他人類的行為指派負(fù)值,同時(shí)也對傷害自身的行為指派負(fù)值。機(jī)器人儒家倫理學(xué)的第二條規(guī)則便可表述如下:
[CR2]在有其他選項(xiàng)存在的情況下,機(jī)器人不能選擇會(huì)給他人帶來最高的負(fù)值結(jié)果或最低的正值結(jié)果(根據(jù)人類偏好的局部排列)的行動(dòng)。
跟“恕”作為負(fù)面的禁令一樣,如此表述的CR2也是對于“不可做什么”的禁令。在CR2的普遍律令下,除非在特殊情況下有其他更高的道德原則壓過“不可做什么”的禁令,機(jī)器人永遠(yuǎn)不能選擇傷害人類,永遠(yuǎn)不能在沒有正當(dāng)理由的情況下給人類造成痛苦,永遠(yuǎn)不能剝奪某人珍視的財(cái)產(chǎn)或是享受,如此等等。這一道德規(guī)則與阿西莫夫第一定律相類似:“機(jī)器人不能傷害人類,或看到人類受到傷害而袖手旁觀?!比欢@條道德指令比阿西莫夫第一定律靈活得多,因?yàn)橛锌赡艽嬖谀承┨囟ǖ呢?fù)值偏好會(huì)超過一般人對于傷害的負(fù)值偏好。比如說,人們也許對極度不公平的厭惡會(huì)遠(yuǎn)遠(yuǎn)超過他們對身體傷害的避免。因此我們不難想象在某些情況下,被設(shè)計(jì)成帶有相應(yīng)的角色任務(wù)和偏好指令的機(jī)器人可能會(huì)參與反抗不公與濫權(quán)的革命起義。
最后,儒家機(jī)器人倫理學(xué)選擇的重要德性是“仁”。倪培民認(rèn)為:“‘仁’是儒家哲學(xué)的核心。它在《論語》中出現(xiàn)了109次。《論語》全書499章,共有58章討論‘仁’這一主題。”【38】在孔子看來,仁德最難培養(yǎng)。他最得意的弟子顏回也只能“其心三月不違仁”,而其他弟子則“日月至焉而已矣”(《雍也》)。當(dāng)被問到某人是否有這一品質(zhì)時(shí),孔子即使承認(rèn)他有其他一些可取的品質(zhì),也很少許之為仁(《公冶長》第五、八、十九章)。同時(shí),孔子認(rèn)為,一個(gè)人能否獲得仁德,純粹取決于意志力。他說:“仁遠(yuǎn)乎哉?我欲仁,斯仁至矣?!鲍ā妒龆罚┇鬃訕O力表彰“仁”,認(rèn)為“唯仁者能好人,能惡人”,并且“茍志於仁矣,無惡也”(《里仁》)。若說康德的理想是“目的王國”,那么孔子的理想便是“仁的王國”??鬃诱劦健袄锶蕿槊馈?,還談到“君子無終食之間違仁,造次必于是,顛沛必于是”(《里仁》)。“仁”確實(shí)是儒家道德教化的核心美德。
然而,孔子大多數(shù)關(guān)于“仁”的言論都是在說仁人可以做什么或不可以做什么,而沒有說到“仁”的內(nèi)容。弟子問仁,孔子說“仁者,其言也讱”(《顏淵》)??鬃釉趧e處也談到“巧言令色,鮮矣仁”(《學(xué)而》)??鬃又辉谏贁?shù)幾處具體描述了何為“仁”。弟子問仁,孔子回答道:“愛人?!鲍ā额仠Y》)孔子還談到,“君子篤于親,則民興于仁”(《泰伯》)。顏回問仁,孔子告訴他:“克己復(fù)禮為仁”,且要“非禮勿視,非禮勿聽,非禮勿言,非禮勿動(dòng)”(《顏回》)。其他弟子問仁,孔子提了三個(gè)要求:“居處恭,執(zhí)事敬,與人忠?!鲍ā蹲勇贰罚┇送?,孔子還用五德解釋“仁”:“恭、寬、信、敏、惠。”(《陽貨》)然而,對仁德最明確的說明莫過于下面這段話:“己欲立而立人,己欲達(dá)而達(dá)人?!鲍ā队阂病罚┇鷵Q句話說,仁德要求道德主體幫助他人以及其他生物成就自身。不過,孔子對于仁人所要成就的目標(biāo)有進(jìn)一步的限制。他說:“君子成人之美,不成人之惡?!鲍ā额仠Y》)易言之,孔子“仁”的理想是為了使他人成為他更好的自己,或者可以這么講,幫助他人達(dá)到“仁”的境界。這一品質(zhì)將是我們想要在機(jī)器人身上建立的最重要的特性。
將仁德轉(zhuǎn)換為給予人工道德主體的道德準(zhǔn)則,我們就得到CR3:
[CR3]在不違背CR1或CR2的前提下,機(jī)器人必須幫助其他人類追求道德進(jìn)步。如果有人的計(jì)劃會(huì)促進(jìn)其品德的敗壞或道德的墮落,那么機(jī)器人就必須拒絕幫助他們。
這里強(qiáng)調(diào)的提供幫助,意味著機(jī)器人的行為是根據(jù)人類所給出的要求或指令來協(xié)助進(jìn)行的。換句話說,機(jī)器人并不自行決定什么對人類主體來說是好的,或者什么是人類主體應(yīng)當(dāng)成就的。同時(shí),運(yùn)用這個(gè)道德規(guī)則編程,當(dāng)人類的命令是為了作惡時(shí),機(jī)器人會(huì)拒絕提供幫助。這樣,我們不但有了不會(huì)傷害人類的人工道德主體,而且也可以防范其他人利用人工智能去干壞事。
有了以上三條規(guī)則,我們就有了儒家機(jī)器人倫理學(xué)的基本形式?,F(xiàn)在所列舉的儒家機(jī)器人倫理學(xué)準(zhǔn)則絕對沒有窮盡一切儒家倫理運(yùn)用的可能性。可能有不止一個(gè)版本的儒家機(jī)器人倫理學(xué);選擇不同德行的集合和不同的機(jī)器倫理準(zhǔn)則都有可能與《論語》文本相兼容。有些儒家機(jī)器人倫理學(xué)的版本可能會(huì)給我的理論模式帶來巨大挑戰(zhàn)。比如,內(nèi)澤伍德(Drayson NezelWood)認(rèn)為,《論語》中能解決電車難題的兩個(gè)主要的價(jià)值是“孝”與“和”?!?9】他認(rèn)為,儒家的愛有差等,始于最親近的家庭成員,進(jìn)而擴(kuò)展到國家,然后才是陌生人及其家庭;這意味著,如果軌道上的那個(gè)人居于差等序列的最高等級,那么儒家式的人工智能就會(huì)選擇救這一個(gè)人而不是其他五個(gè)人。內(nèi)澤伍德所想到的情景包括,救所愛的人(如人工智能的主人)而犧牲皇室成員,救君王而非救另外五個(gè)人(即使這五人都達(dá)到了君子的道德水平),救一個(gè)君子而非救五個(gè)庶民,如此等等。但是我并不認(rèn)為儒家是像他所說的那樣對人的生命價(jià)值進(jìn)行了分級,也不認(rèn)為儒家人工智能會(huì)做出如上的倫理判斷。我認(rèn)為儒家“親親”與“孝”的觀念并不意味著所親之人的生命重于其他人的生命。但是,內(nèi)澤伍德有一點(diǎn)講得很對:儒家人工智能主體不會(huì)自動(dòng)使用功利主義原則去不涉及情感地以人數(shù)多少來作選擇標(biāo)準(zhǔn)。那么,儒家人工智能主體在標(biāo)準(zhǔn)版和天橋版電車難題中究竟會(huì)如何行事?
在天橋版本中,執(zhí)行儒家倫理準(zhǔn)則的機(jī)器人永遠(yuǎn)不會(huì)采取將人推下橋的行動(dòng),因?yàn)檫@么做顯然把三條道德原則都違背了。在標(biāo)準(zhǔn)版本中,判斷則要復(fù)雜得多。如果機(jī)器人是電車司機(jī)或鐵道管理員,它的職責(zé)會(huì)命令它拉動(dòng)操作桿,使得這個(gè)電車在所有可選項(xiàng)中盡可能造成最小的傷害。即使某人與機(jī)器人的設(shè)計(jì)者有特殊的關(guān)系,機(jī)器人也不會(huì)對這個(gè)人抱有偏愛,因?yàn)樵跈C(jī)器人的設(shè)計(jì)編程中并沒有加上偏愛或是特別情感。如果機(jī)器人只是一個(gè)路人,那么根據(jù)CR1,它沒有任何義務(wù)采取行動(dòng),而且根據(jù)CR2的禁令,機(jī)器人更傾向于袖手旁觀而非采取行動(dòng)。因此,一個(gè)路人機(jī)器人不應(yīng)采取任何行動(dòng)來使疾馳的電車轉(zhuǎn)向,即使這么做能夠減少傷亡人數(shù)。
在標(biāo)準(zhǔn)版電車難題中,依照儒家倫理律令行事的機(jī)器人,除非是電車司機(jī)或鐵道管理員這類特殊角色,是不會(huì)拉動(dòng)操作桿的。在天橋版本中,依照儒家倫理行事的機(jī)器人,不論是什么職分角色,都不會(huì)將那名男子推下橋以使電車停止。如此看來,機(jī)器人的決定會(huì)不同于大部分人類的直覺選擇,因?yàn)闄C(jī)器人不會(huì)像人類在天橋情景中那樣受到無意識的情感掙扎的影響?!?0】儒家機(jī)器人不會(huì)因自身的“行動(dòng)”而對任何人造成傷害,或強(qiáng)迫任何人接受他們不愿接受的結(jié)果,即使它可能因?yàn)樽陨淼摹安恍袆?dòng)”而沒有防止對別人造成的傷害或發(fā)生別人不情愿接受的后果。在不久的將來,當(dāng)我們的社會(huì)中存在可自我管制、自主行動(dòng)的人工道德主體時(shí),當(dāng)不論它是否采取行動(dòng)都會(huì)導(dǎo)致對人的傷害和帶來我們不愿看到的后果時(shí),我們寧可它選擇袖手旁觀,而不是采取行動(dòng)。
結(jié)語
M.安德森和S.安德森在他們關(guān)于機(jī)器倫理學(xué)的著作中提到:“機(jī)器倫理學(xué)的終極目標(biāo)……是要?jiǎng)?chuàng)造出一種‘自律’的機(jī)器人,它們會(huì)自己遵守一些理想的道德原則;也就是說,它們可以在這些道德原則的指引下自行決定應(yīng)該采取何種行動(dòng)。”【41】他們也認(rèn)為,研究機(jī)器倫理學(xué)的另一個(gè)好處在于這“可能會(huì)帶來道德理論上的突破,因?yàn)闄C(jī)器十分適合于我們檢測堅(jiān)持遵循一個(gè)特定的道德理論將會(huì)導(dǎo)致何種結(jié)果”【42】。本文考察了四類機(jī)器倫理的道德模式,即阿西莫夫定律,兩條康德式的“絕對命令”,功利主義的“效用原則”,以及儒家的忠、恕、仁道德原則。在比較了這些道德模式對于電車難題的標(biāo)準(zhǔn)版和天橋版的解決方案之后,本文認(rèn)為儒家的道德模型要優(yōu)于其他三種道德理論。
當(dāng)然,我們設(shè)計(jì)人工道德主體的初衷不是僅僅為了處理電車難題以及類似的問題。在許多其他實(shí)用方面,儒家的人工道德主體可以成為人類社會(huì)很好的補(bǔ)助。首先,我們可以按照分配給儒家道德機(jī)器人的角色來為其設(shè)計(jì)具體的工作,比如,為老年人提供幫助,為病人提供保健服務(wù),為游客提供向?qū)Х?wù),為汽車提供安全導(dǎo)航,等等。它的首要職責(zé)是忠于角色;因此,它在特定情境中所做的其他任何決定都不能違反其職責(zé)。第二,儒家機(jī)器人具有精確計(jì)算出的偏好指令,不會(huì)采取將給其他人類帶來極大的負(fù)面價(jià)值(包括傷害)或極不可欲后果的任何行動(dòng)。這一原則要優(yōu)于阿西莫夫第一定律,因?yàn)樗仍试S了更多對負(fù)面價(jià)值的考慮,又讓機(jī)器人在權(quán)衡可允許的行動(dòng)范圍時(shí)更加靈活。而且,它也要優(yōu)于康德原則或功利主義原則,因?yàn)檫@一道德原則基于儒家的“負(fù)面形式的金律”,它的作用是禁止做出錯(cuò)誤行動(dòng),而不是靠主觀意志原則去采取自以為是的行動(dòng)。在可預(yù)見的未來,在我們可能會(huì)將主動(dòng)權(quán)交給人工智能的情境中,這一原則可以保護(hù)我們避免受因人工智能故意犧牲人類而帶來的傷害,盡管人工智能或許會(huì)考慮它們的行動(dòng)將帶來多大的利益。最后,儒家道德機(jī)器人將是有仁德的機(jī)器人:在CR3的引導(dǎo)之下,它會(huì)協(xié)助而不會(huì)阻礙人類去努力行善,去成為更好的人,去建設(shè)更加美好的世界。也許,最終的人工智能發(fā)展會(huì)促成人類和人工智能共同生活在孔子理想中的“仁的王國”之中。
參考文獻(xiàn)
1. Michael Anderson & Susan Leigh Anderson, “Machine Ethics,” IEEE Intelligent Systems, 2006, 21 (4):11.
2. Ryan Tonkens, “A Challenge for Machine Ethics,” Mind &Machines, 2009,19(3): 422.
3. 當(dāng)然也有將這兩種進(jìn)路結(jié)合起來的方法。
4. Wendell Wallach & Collin Allen, Moral Machines: Teaching Robots Right from Wrong, New York: Oxford University Press, 2009, p.80.
5. Michael Anderson & Susan Leigh Anderson, “Machine Ethics: Creating an Ethical Intelligent Agent,” AI Magazine, 2007,28(4):15-25.
6. Michael Anderson & Susan Leigh Anderson, “Machine Ethics: Creating an Ethical Intelligent Agent,” p.17.
7. Deng Beor, “Machine Ethics: The Robots Dilemma,” Nature, 2015,523(7558):2426, DOI: 10.1038/523024a.
8. Joshua D. Greene, et al., “An fMRI Investigation of Emotional Engagement in Moral Judgment,” Science, 2001,293(5537):2106.
9. 這類例子在自動(dòng)駕駛或無人駕駛汽車中不勝枚舉。可參見JeanFranois Bonnefon, et al., “The Social Dilemma of Autonomous Vehicles,” Science, 2016,352(6239):15731576, DOI: 10.1126/science,aaf2654;Deng Beor, “Machine Ethics: The Robots Dilemma,” Nature, 2015,523(7558):2426, DOI: 10.1038/523024a;Larry Greenemeier, “Driverless Cars will Face Moral Dilemmas,” Scientific American, June 23,2016 (https://www.scientificamerican.com/article/driverlesscarswillfacemoraldilemmas);William Herkewitz, “The Selfdriving Dilemma: Should Your Car Kill You to Save Others?”, Popular Mechanics, June 23,2016 (http://www.popularmechanics.com/cars/a21492/theselfdrivingdilemma)。
10. 阿西莫夫1942年的科幻小說《轉(zhuǎn)圈圈》(Run around)中首次引入三大定律。瓦拉赫(Wendell Wallach)和艾倫(Colin Allen)認(rèn)為:“任何討論‘自上而下’式的機(jī)器人道德設(shè)計(jì)不能不談阿西莫夫三大定律?!币奧endell Wallach & Colin Allen, Moral Machines: Teaching Robots Right from Wrong, p.91。
11. Wendell Wallach & Colin Allen, Moral Machines: Teaching Robots Right from Wrong, p.91.
12. Deng Beor, “Machine Ethics: The Robots Delimma,” pp.24-26.
13. Alan F. T. Winfield, et al., “Towards an Ethical Robot: Internal Models, Consequences, and Ethical Action Selection,” Advances in Autonomous Robotics Systems, 15th Annual Conference, TAROS 2014, Birmingham, UK, September 13,2014, Proceedings, Springer, 2014, pp.85-96.
14. Ryan Tonkens, “A Challenge for Machine Ethics,” p.422.
15. Robert Johnson & Adam Cureton, “Kants Moral Philosophy,” The Stanford Encyclopedia of Philosophy, Edward N. Zalta (ed.), Fall, 2017 (https://plato.stanford.edu/archives/fall2017/entries/kantmoral) .
16. Immanuel Kant, Grounding for the Metaphysics of Morals(1785), 3rd Edition, trans. James W. Ellington, Indianapolis: Hackett Publishing Company, 1993, p.11.(中譯參考了康德:《道德形而上學(xué)的奠基》,《康德著作全集》第4卷,李秋零譯,北京:中國人民大學(xué)出版社,2005年,第405頁?!g者注)
17. 康德《實(shí)踐理性批判》的表述如下:“要這樣行動(dòng),使得你的意志的準(zhǔn)則在任何時(shí)候都能同時(shí)被視為一種普遍的立法原則?!眳⒁娍档拢骸秾?shí)踐理性批判》,李秋零譯,北京:中國人民大學(xué)出版社,2007年,第29頁?!g者注
18. Joshua D. Greene, “The Secret Joke of Kants Soul,” Moral Psychology, Vol.3: The Neuroscience of Morality: Emotion, Disease, and Development, W. SinnottArmstrong (ed.), Cambridge, MA: MIT Press, 2007, p.42.
19. Joshua D. Greene, “The Secret Joke of Kants Soul,” p.43.
20. Joshua D. Greene, “The Secret Joke of Kants Soul,” p.62.
21. Robert Johnson & Adam Cureton, “Kants Moral Philosophy”.
22. Ryan Tonkens, “A Challenge for Machine Ethics,” p.429.
23. Ryan Tonkens, “A Challenge for Machine Ethics,” pp.432-433.
24. John Stuart Mill, Utilitarianism, 2nd Edition, George Sher (ed.), Indianapolis: Hackett Publishing Company, 2001, p.81. (中譯參考了約翰·穆勒:《功利主義》,徐大建譯,上海:上海人民出版社,2008年,第35頁。——譯者注)
25. Julia Driver, Consequentialism, London and New York: Routledge, 2012, p.24.
26. 功利主義可以是這里所表述的“行為功利主義”,也可以是“規(guī)則功利主義”。一個(gè)行為是否正確,是由它所遵循的規(guī)則的后果來決定:如果這個(gè)規(guī)則比起其他規(guī)則更能夠產(chǎn)生更大的利益或是更小的傷害,那么這個(gè)規(guī)則就是可遵循的,而遵循這個(gè)規(guī)則的行為也就是對的。在人類規(guī)范性倫理學(xué)的討論中,許多功利主義者認(rèn)為功利主義必須被理解為規(guī)則功利主義。但是因?yàn)槿斯ぶ悄苄枰_的規(guī)則和程序來幫助它選擇當(dāng)下的行動(dòng),所以我們在此只討論行為功利主義。
27. “大致說來,參與者都同意如果犧牲自己的乘客能夠挽救更多的生命,那么自動(dòng)駕駛汽車犧牲自己的乘客就是更為道德的抉擇。”見JeanFranois Bonnefon, et al., “The Social Dilemma of Autonomous Vehicles,” Science, 2016,352(6293):1574, DOI: 10.1126/science.aaf2654。
28. JeanFranois Bonnefon, et al., “The Social Dilemma of Autonomous Vehicles,” p.1574.
29. JeanFranois Bonnefon, et al., “The Social Dilemma of Autonomous Vehicles,” p.1575.
30. JeanFranois Bonnefon, et al., “The Social Dilemma of Autonomous Vehicles,” p.1573.
31. Michael Anderson & Susan Leigh Anderson, “Machine Ethics: Creating an Ethical Intelligent Agent,” p.18.
32. 如無特殊說明,《論語》引文由筆者自己英譯,同時(shí)參考了 Raymond Dawson (trans.), Confucius: The Analects, New York: Oxford University Press, 1993,以及Peimin Ni, Understanding the Analects of Confucius: A New Translation of Lunyu with Annotation, Albany, NY: SUNY Press, 2017。
33. 這是倪培民的翻譯?!八 币步?jīng)常翻譯為“empathy”,筆者亦曾如是翻譯。
34. 為簡明計(jì),下文引述《論語》,只注篇名。——譯者注
35. JeeLoo Liu, An Introduction to Chinese Philosophy: From Ancient Philosophy to Chinese Buddhism, Malden, MA: Blackwell, 2006, p.50.
36. JeeLoo Liu, An Introduction to Chinese Philosophy: From Ancient Philosophy to Chinese Buddhism, p.55.
37. Hilary Putnam, “The Nature of Mental States,” reprinted in Hilary Putnam, Mind, Language, and Reality, Cambridge: Cambridge University Press, 1975, p.435.
38. Pemin Ni, Understanding the Analects of Confucius: A New Translation of Lunyu with Annotation, p.32.
39. 2017年夏天,我作為“復(fù)旦學(xué)者”在復(fù)旦大學(xué)訪學(xué)。我邀請了幾位研究生討論用儒家機(jī)器人倫理解決電車難題。一位加拿大學(xué)生內(nèi)澤伍德(Drayson NezelWood)接受我的挑戰(zhàn),發(fā)給我他的儒家解決方案,并附了一張?jiān)敿?xì)的圖表。他的觀點(diǎn)很有意思,關(guān)于電車難題的圖表也很有幫助,在此謹(jǐn)致謝忱。
40. 參閱Joshua D. Greene, et al., “An fMRI Investigation of Emotional Engagement in Moral Judgment”。
41. Michael Anderson & Susan Leigh Anderson, “Machine Ethics: Creating an Ethical Intelligent Agent,” p.15-25.
42. Michael Anderson & Susan Leigh Anderson, “Machine Ethics: Creating an Ethical Intelligent Agent,” p.15-25.
責(zé)任編輯:近復(fù)
儒家網(wǎng)
青春儒學(xué)
民間儒行
儒家網(wǎng)
青春儒學(xué)
民間儒行