網路城邦
上一篇 回創作列表 下一篇   字體:
Diotima的問題世界:機械人的倫理學問題
2009/08/25 19:50:38瀏覽2351|回應8|推薦74

最近最震撼我思考的漫畫是浦澤直樹«冥王»。故事中有七個頂尖的機械人,或是說人工智慧,行為舉止跟人類完全一樣。其中一個,是主角:歐洲聯邦機械人警官蓋吉特。他逮捕犯人時只能用麻醉槍,因為他的程式是被設定為「不可殺人」的。然而他之前曾經因為自己的機器小孩被一個人類「虐殺」,竟至忍無可忍而開槍殺了對方。這引發了高層的關注,當作是設計出了問題而把蓋吉特的這段記憶洗掉,然而蓋吉特在夢中還有清醒意識裡仍會不是跳出片段的記憶和情緒。

相關題材的故事與電影,總是讓我不斷冒出問題。幾年前的電影<機械公敵>裡頭,機器人在製造時就被人類設定了三條行事準則:

第一法則:機器人不得傷害人類,或坐視人類受到傷害而袖手旁觀。
第二法則:機器人必須服從人類的命令,除非違背第一法則。
第三法則:機器人必須保護自己的安全,除非違背第一與第二法則。

光是這幾條就可以編織出很多機器人的「道德情境」與「道德衝突」了。大家不妨發揮想像力,創造一些情節。我先簡單擬定個二律悖反:

正題:某機械人因殺人而被法庭判為有罪,因為它自己與別人,都無法證明它「沒有」自由意志。

反題:某機械人因殺人被法庭判為無罪,因為它自己與別人,都無法證明它「有」自由意志。

在正題裡頭,第三者或機器人自己無法證明自己「不自由」,所以它必須為自己的行為承擔後果。在反題裡頭,第三者或機器人自己無法證明自己是「自由的」,所以不用為其行為負責。

我們都先假定了自由意志,才能賦予行動者道德責任,這已經變成我們討論倫理問題的「默認點」了。(至於這個默認點從何而來?本身合理嗎?各家哲學則有不同的回答)倫理學上有個標準模型,就是所謂的PAP(principle of alternative possibility)模型:一個行動者之所以在道德上要為其行為負責,若且唯若他(她)本來可以不這麼做:S is morally responsible for having done something only if S could have done otherwise.反過來說,如果一個人因某種緣故,比方說被脅迫、控制、催眠、無知、精神耗弱等狀況,在行動時並沒有另一種選擇的可能,則他(她)相對地要承擔的道德歸咎就會有所斟酌地減輕。這是個很生硬的原理,也引發很多問題與詰難,但基本上是個方便的判準,且在大多數情境下不會出太大的問題。

但是自由要怎麼證明呢?這是個大難題。這就是上面所假設機器人二律悖反的情況。甚至對康德而言,要在「理論上」證明自由意志是有困難的。反之亦然,要在「理論上」否認自由意志也是有困難的。不過在「實踐上」每個行動者都可以體證自由意志的存在。所以康德把自由意志視為他兩大«批判»的拱心石。

我再順著機器人的例子假設一個難題:

某一機器人有兩種模式,可以設定為「沒有自由意志」,也可以設定為「有自由意志」。有一次此機器人違反公約殺了人類,工程師發現它的兩種模式搞混了,那到底是「時而自由時而不自由」?還是每個行動中自由和不自由各佔一半?自由加上不自由,會變成自由還是不自由?

自由是某種可以設定的東西嗎?或是說,自由是種「物理狀態」嗎?我有個朋友很迷量子力學,他說唯有用「量子大腦」的模型才能解釋人的自由意志。這在我聽起來也是一種唯物主義的化約論。因為第一,自由是一種行動當下的主觀經驗,不必外求於物理條件。第二,如果自由還需要某種物理或生理條件的因果解釋,那麼就與自由的定義自相矛盾。

人工智慧的議題之所以吸引我,因為它往往讓我聯想到基督教的教義。機器人之於人,就好像人之於上帝。這兩種關係有很多可以類比之處。基督徒常說一句話:「上帝給了我們自由意志」。這句話聽起來很合理,但是我越想越奇怪,甚麼叫做「給」我們自由?自由是某種可以給的東西嗎?(我所說的是free will,而不是政治哲學所討論的liberty)人對於科幻AI的種種矛盾複雜的情感,或許早在創世神話中就已經投射了同樣的主題了。

 

 

 

 

 

 

 

 

 

 

 

 

( )
回應 推薦文章 列印 加入我的文摘
上一篇 回創作列表 下一篇

引用
引用網址:https://classic-blog.udn.com/article/trackback.jsp?uid=diotima&aid=3257377

 回應文章

kris
挑剔一下
2009/09/04 20:22
pap不是倫理學裡的標準模型,因為如果決定論為真,就沒有alternative possibility,因此,通常只有自由意志和決定論的不相容論者才會支持pap,相容論者會使用其它判準來判斷人在各種情況下有沒有道德責任。
翔任(diotima) 於 2009-09-05 16:59 回覆:
謝謝您的討論。我說的標準模型,或者應該稱為「強勢版本」,是比較符合一般人運用的道德標準。您說的「因為如果決定論為真」反而比較偏離一般人的默認點,不管在道德上或是法律上。我的意思是,以康德的講法,當我們行動時,的確會發現自由意志是自明的,是現實的。我的理解是,這裡跟相容論或不相容論沒有太大關係。謝謝您所賜的寶貴意見。
翔任(diotima) 於 2009-09-07 23:35 回覆:

翔任不確定認不認識您,但很歡迎您蒞臨我的部落格。

翔任再補充幾句喔把想法表達更清楚一點~

pap並不限於康德的道德與自然不相容論者的版本,也適用於經驗論的相容論者。經驗論未必是決定論者。雖然他們也認為從自然狀態推不出「應該」這種東西,但他們未必要採取康德把道德實踐或是純粹意志的國度從自然界中獨立出來。然而,就算他們可以把道德「自然化」,也是肯定了意志(或是「高階慾望」)在道德實踐中的主導作用。一旦涉及到決定、選擇、評估等等,pap就不失為一個「好用的」方便版本。不管是「做錯事」或是「做對事」,pap都是方便操作的。當然啦,pap用在「歸咎」比用在「歸功」更多。


異色-自古文人多寂寞
等級:8
留言加入好友
搞错了
2009/08/28 19:52

翔任,我搞错了,不过,我真的想大笑……

因为,我再看一次“科学怪人”现在有“新科学怪人”,原来不是科学怪人在那里被压的很”快乐”,而是那个女主人,被科学怪人压得唱起歌来……讽刺极了。

所以,这就是很值得玩味的,我们制造他们,目的的啥?对他投射出“另外一半”的向往?希望他们会“爱”我们?以后会不会发展出,我们和机器人谈恋爱?--这反映了很多人是否在自己的同类中找不到完美的情人?

我们要驾驭他们,但,又希望他们对我们付出感情,所以,我甚至联想到;有没有一些寂寞的男人或女人,对著“充气娃娃”说话和……并且希望有天早上起来,对方已经在帮我们煮咖啡了?……

翔任(diotima) 於 2009-08-28 23:10 回覆:

呵呵~異色說的可能真的有那麼一天喔~
讓我們來溫習一下AI情人裘德洛吧!
如果有這種「充氣娃娃」,有誰招架的住呢?^^

異色-自古文人多寂寞
等級:8
留言加入好友
诗人和科学家
2009/08/28 02:20

我想,从“玛丽雪莱”的“科学怪人”中,就已经可以理解人类何以一直想要制造所谓的“机器人”--那时还没有机器人这个名词,但,这个怪人,同样地也是一种试图用科学方法来造就的复制人,人类同时也幻想机器人有一天可以取代某些你需要的人,我们渴望在我们之下的“物种”是不是也会倒过来驾驭我们?希望被驾驭的不全然只是大家的“上帝”……用另外一个角度来看,也正是我们的感情的黑洞……

说的轻松点,科学怪人本来也只是勉强被弄出来的“半死半活人”应该说;人类控制了他,他只接受指令……然而有一次,一个女仆不小心(还是女主人)和他一起摔下楼梯,女人无意压在了他的身上,这个科学怪人居然舒服到“心花怒放”地唱起歌来,煞是开心(把一缸子的人都吓跑了)……

这是他的“自由意志?”还是……

每看到这一幕,就觉得,诗人,和科学家的,俩种心性……

翔任(diotima) 於 2009-08-28 18:29 回覆:

不管是機械人還是複製人,人類的慾望是否不只是製造「生命」,也想製造出「靈魂」?這到底是種甚麼樣的衝動?異色所舉的科學怪人的例子很有啟發性。套用一句存在主義者老掉大牙的標語,在此倒蠻好用的,就是:「存在先於本質」。當科學怪人自覺不想一個指令一個動作時,他就不只是一個被設計的東西,而是能夠扣問自己存在意義的「人」,或用沙特的話,就是「虛無」。

翔任有個「照鏡子」測定標準,把猴子、猩猩、人的額頭上畫隻烏龜,再給這三者照鏡子:

會摸鏡子裡的烏龜的:猴子

會摸自己額頭上的烏龜的:猩猩

會摸自己的烏龜並大笑的:人


周笎翎
等級:7
留言加入好友
內容
2009/08/27 13:57
很特別 令人好奇
翔任(diotima) 於 2009-08-27 22:58 回覆:
哈~幻想是我的主修,這下子沒救了。


等級:
留言加入好友
很有意思的文章
2009/08/27 09:05

看到這篇文章的論述,不僅讓我想起現實生活中也有類似的情境,讓人不管從反証或是正證都無法查證的困擾,舉例而言,在一個活動安排中,主管發現組員因有決策權之便,將自己安排在有利於他自己的狀況,這樣的安排主管認為不妥,直接找這個組員溝通,沒想到
這個組員聲淚俱下充滿委屈,說明了為何這樣安排的理由,並不是刻意如此,結果這個主管
當下為自己如此莽撞,竟然未查證而輕易的將這個組員貼上標籤,立刻道歉!但事實上已經傷害的一個人的心了!
從這個實例看到....沒有直接證據證明這個組員是不是故意或非故意,因為他確實是從中獲得利益,但他說的那些理由也確實容許存在,再來這個主管明白自己確實是傷到一個人的心,需要道歉,但從他管理的經驗與朝暮相處的組員習性,也讓他有理由合理的懷疑,
但組員與主管的內心真正的想法,彼此無從驗證,真?假?有?無?無法驗證.讓我從中也體悟到實非實,虛非虛的意境,佛家講的論述有時候真的讓人拍案叫絕!

翔任(diotima) 於 2009-08-27 22:54 回覆:

雙方各有各的理由,也都各自無法證實或否證對方的動機,如果兩造處於權力上的平等關係,那至少都可以保持消極的自由。但是如果雙方一開始就處在不對等的權力關係,那必然會造成一人欺壓另一人的不幸。人類的道德情境總是那麼棘手。

翔任小時候有個很天真的想法,就是認為如果兩國有戰爭,先開戰的那方一定是錯的,不管它有甚麼理由。可是現在越來越發現,很多戰爭是有道理的。唉~無奈。


blackmoon(永恆的懷念,空行者)
等級:8
留言加入好友
更完美的人類
2009/08/27 01:30
機械人是由人類製造的,也因此,機械人與人類之間的關係,不能當
作是不同類的關係,很可能機械人會認為自己是更完美的人類。

來自遙遠黑月的問候
翔任(diotima) 於 2009-08-27 01:42 回覆:
翔任想到三個哲學上既相關又要辨析的概念:(1)人類:human beings,或是生物學上的定義:人科人屬智人種homo sapiens sapiens(2)人性:humanity(3)人格或位格:person。在形上學、心靈哲學、倫理學、甚至還有人工智慧的討論上,往往要先釐清這三者。機器人如果有自覺意識,就可以被賦予一個「位格」或是「人格」,正如同我們也可以說,上帝和天使都有一個位格。不過由於機械人的物理條件,「生理」條件還有「成長背景」都跟人大不相同,所以他們一定沒有我們專有的「人性」。至於第一項,有個有趣的問題,就是演化的因緣際會使得人類在物種上是很孤單的。如今地球上已經沒有其他「人科」動物存在了。離我們最近的倪安德塔人大概在三萬年左右消失。如果他們今天還存在,雖然不是human beings,但我們恐怕也會用相對等的道德律對待之,還是恐怕不會?這是個「死無對證」的問題。

blackmoon(永恆的懷念,空行者)
等級:8
留言加入好友
機械人的後代
2009/08/27 01:07
我想,這樣的可能性還是存在的,亦即:
機械人可以自己製造自己,可以自己決定情緒如何反應,可以自己決定
何謂倫理,它們可以決定,哪些人是它的朋友,哪些人是它的敵人,以
及要不要繼續跟人類合作......。
而,如果機械人掌握了人類,他們甚至將會制定一套法律大全,清楚規
定,何謂自由意志,何謂非自由意志......。
我想,機械人掌握人類並不是不可能的,例如,如果哪天世界受原子塵污
染,倖存的人類可能四肢不再靈活,頭腦不再智慧,那麼不受原子塵污
染的機械人,就有可能變成人類的主宰。

來自遙遠黑月的問候

翔任(diotima) 於 2009-08-27 01:23 回覆:

是啊,好萊塢電影有類似的主題:The Terminator和The Metrix等等。漫畫<冥王>裡的機械人「殺」同類的機械人,在我們人類看來,他們只是在破壞機械,但是他們的感受跟人類殺人是一樣的,也會有內疚感和創傷。

一般來說,大部分的道德律只有在同類行動者的交際互動才有意義,要往外推及不同種類的生命,就會有困難。比方說,如果蜜蜂或是螞蟻有他們自己「自覺」的道德觀,那麼「凡生命皆平等」的準則一定會有相當的調整。沒有生殖能力的工蟻和工蜂,一定會認為負責生產整個後代子民的蟻后和女王蜂的生命是更有價值的。



等級:
留言加入好友
^-^
2009/08/26 19:39

機器人在怎麼變化,也還是人類創造出來的

也許它可以做很多比人類更棒的事

但,它終究缺少了「心靈」

翔任(diotima) 於 2009-08-26 22:20 回覆:
這是個好問題喔~有一派說法是斷定人工智慧(AI)要和人工情緒(AE)攜手並進,才可能出現「心靈」,但人工情緒是無法做到的,所以人工心靈不可能出現。甚至不用說情緒,要製造出人工「感覺」就很困難了。不過或許有一天,終於出現個「怕痛」的機器人,那樣的話,就是接近心靈的第一步了。