![]() ![]() ![]() |
|
|
|
2009/08/25 19:50:38瀏覽2680|回應8|推薦74 | |
最近最震撼我思考的漫畫是浦澤直樹的«冥王»。故事中有七個頂尖的機械人,或是說人工智慧,行為舉止跟人類完全一樣。其中一個,是主角:歐洲聯邦機械人警官蓋吉特。他逮捕犯人時只能用麻醉槍,因為他的程式是被設定為「不可殺人」的。然而他之前曾經因為自己的機器小孩被一個人類「虐殺」,竟至忍無可忍而開槍殺了對方。這引發了高層的關注,當作是設計出了問題而把蓋吉特的這段記憶洗掉,然而蓋吉特在夢中還有清醒意識裡仍會不是跳出片段的記憶和情緒。 相關題材的故事與電影,總是讓我不斷冒出問題。幾年前的電影<機械公敵>裡頭,機器人在製造時就被人類設定了三條行事準則: 第一法則:機器人不得傷害人類,或坐視人類受到傷害而袖手旁觀。 光是這幾條就可以編織出很多機器人的「道德情境」與「道德衝突」了。大家不妨發揮想像力,創造一些情節。我先簡單擬定個二律悖反: 正題:某機械人因殺人而被法庭判為有罪,因為它自己與別人,都無法證明它「沒有」自由意志。 反題:某機械人因殺人被法庭判為無罪,因為它自己與別人,都無法證明它「有」自由意志。 在正題裡頭,第三者或機器人自己無法證明自己「不自由」,所以它必須為自己的行為承擔後果。在反題裡頭,第三者或機器人自己無法證明自己是「自由的」,所以不用為其行為負責。 我們都先假定了自由意志,才能賦予行動者道德責任,這已經變成我們討論倫理問題的「默認點」了。(至於這個默認點從何而來?本身合理嗎?各家哲學則有不同的回答)倫理學上有個標準模型,就是所謂的PAP(principle of alternative possibility)模型:一個行動者之所以在道德上要為其行為負責,若且唯若他(她)本來可以不這麼做:S is morally responsible for having done something only if S could have done otherwise.反過來說,如果一個人因某種緣故,比方說被脅迫、控制、催眠、無知、精神耗弱等狀況,在行動時並沒有另一種選擇的可能,則他(她)相對地要承擔的道德歸咎就會有所斟酌地減輕。這是個很生硬的原理,也引發很多問題與詰難,但基本上是個方便的判準,且在大多數情境下不會出太大的問題。 但是自由要怎麼證明呢?這是個大難題。這就是上面所假設機器人二律悖反的情況。甚至對康德而言,要在「理論上」證明自由意志是有困難的。反之亦然,要在「理論上」否認自由意志也是有困難的。不過在「實踐上」每個行動者都可以體證自由意志的存在。所以康德把自由意志視為他兩大«批判»的拱心石。 我再順著機器人的例子假設一個難題: 某一機器人有兩種模式,可以設定為「沒有自由意志」,也可以設定為「有自由意志」。有一次此機器人違反公約殺了人類,工程師發現它的兩種模式搞混了,那到底是「時而自由時而不自由」?還是每個行動中自由和不自由各佔一半?自由加上不自由,會變成自由還是不自由? 自由是某種可以設定的東西嗎?或是說,自由是種「物理狀態」嗎?我有個朋友很迷量子力學,他說唯有用「量子大腦」的模型才能解釋人的自由意志。這在我聽起來也是一種唯物主義的化約論。因為第一,自由是一種行動當下的主觀經驗,不必外求於物理條件。第二,如果自由還需要某種物理或生理條件的因果解釋,那麼就與自由的定義自相矛盾。 人工智慧的議題之所以吸引我,因為它往往讓我聯想到基督教的教義。機器人之於人,就好像人之於上帝。這兩種關係有很多可以類比之處。基督徒常說一句話:「上帝給了我們自由意志」。這句話聽起來很合理,但是我越想越奇怪,甚麼叫做「給」我們自由?自由是某種可以給的東西嗎?(我所說的是free will,而不是政治哲學所討論的liberty)人對於科幻AI的種種矛盾複雜的情感,或許早在創世神話中就已經投射了同樣的主題了。
|
|
( 創作|散文 ) |