網路城邦
上一篇 回創作列表 下一篇   字體:
倫理程式必須植入AI機器人
2019/09/20 21:49:08瀏覽404|回應0|推薦0


AI話題 現在已經變成了個顯學
管你懂還是不懂  都要跟別人搭上兩句AI
至少要假裝知道AI指的是甚麼咚咚

其實 關於擬人化智慧的議題 早個幾十年前
Isaac Asimov (艾薩克 艾西莫夫) 就已經發揮他的智慧
為AI的到來 設定好了許多重要的議題
比方說 正子人(電影"變人"的原著)的法律權利議題

艾西莫夫的機器人系列小說 是狗吉拉極其推讚的一個系列
(大家如果能跟老艾的基地系列串接的話 更好)
以下是一篇改編自科學人2010年第105期11月號的狗吉拉文
與大家分享 關於AI機器人的倫理問題

--害怕有智慧的機器人--
機器人聰明到足以挑戰人類  是許多驚悚科幻小說裡常見的恐怖情節
而且機器人絕對不會因為傷害甚至毀滅人類而感到絲毫內疚
當然 目前機器人的用途大多是幫助人類 
但即使在相當平常的狀況下  機器人也會面臨許多倫理上的挑戰
而人工智慧也正在嘗試突破這些困境

--機器人的困局--
AI機器人以後可能很快就會出現在安養機構 而狗吉拉就住在安養機構裡

接近上午11點時 你要娛樂室裡的機器人幫我拿遙控器 好讓我打開電視收看"超級星光大道" 但另一位住客也想拿遙控器  因為她想看"全民估價王"
最後機器人決定把遙控器拿給她

剛開始我有點不高興 但機器人解釋這個決定很公平
因為我今天已經看過我最喜歡的晨間節目 
這個故事是很平常的倫理決策行為範例 
但對於機器人而言卻是十分難以達成的重大成就

前面描述的狀況只是理論上的模擬 但科技已經讓我們製作出第一款能做出類似決定的示範機器人
我們賦予這具AI機器人倫理原則 讓AI依照這個原則決定該隔多久提醒病患吃藥

機器人的程式目前只能從少數幾種可能的選項中選取其中之一
例如是否要一直提醒病患吃藥與何時該提醒 或什麼狀況下該接受病患不吃藥的決定
不過就我們所知 這是第一款依據倫理原則決定行動的機器人
但要預測機器人可能面臨的所有抉擇 並將之寫入程式
讓機器人在各種想像得到的狀況下都能妥善處理 卻相當困難 可以說是不可能 
但另一方面 如果完全不讓機器人採取需要做出倫理抉擇的行動
又可能大幅限制機器人執行得以大幅改善人類生活的任務

我們認為 解決方法是讓機器人能將倫理原則運用在預料之外的新狀況下
好比說除了判斷該讓誰拿遙控器之外 還可以決定該讓誰看新書等

這種方式還有一個優點 就是當機器人被要求解釋自己的行為時 可以參考這些原則 
如果要讓人類自在地與機器人互動  這點十分重要
另外一個附加優點則是 倫理機器人的開發工作 也可促使哲學家探究日常生活狀況 帶動倫理學這個領域本身的進步 
就像美國塔弗茲大學哲學家鄧奈特(Daniel C. Dennett)所說的:「人工智慧使哲學更誠實。」

--如果你熟悉艾西莫夫的話--
狗吉拉在老艾的經典系列 "我,機器人" 的內容中
其實已經看到大量的分析各種AI面臨的倫理困境與想定
比方說 具有自主能力的機器人在小說中已經成為日常生活的一部份
飛機能夠自己飛行 能自動駕駛的汽車 從燈光到空調等一切運作都由電腦控制的智慧型住宅(也可想成是身體就是房屋的機器人)
目前已有許多企業正在開發能協助銀髮族打理日常生活的機器人 除了可以協助安養機構人員工作 也可幫助長者在家中獨立生活
儘管這類機器人大多不必做出攸關生死的決定 但要讓一般人接受它們 必須先讓大眾認為它們的行為公平正確 或者至少是良善的
因此 機器人的研發人員最好能將程式會帶來的倫理歧見列入考量
(狗吉拉註 要不然 就會出現庫柏力克的電影"2001 太空漫遊"中的HAL9000這部太空船大腦所幹的事)
如果你也認為將倫理原則置入具有自主能力的機器人
是機器人與人類順利互動的關鍵 
麼第一個問題就是應該置入哪些原則????
科幻小說迷可能會認為 艾西莫夫Isaac Asimov多年前已經提出了答案 那就是著名的「機器人學三大法則」
1. 機器人不得傷害人類,或者坐視人類受到傷害而袖手旁觀
2. 除非違背第一法則,機器人必須服從人類的命令
3. 在不違背第一或第二法則的情況下,機器人必須保護自己

艾西莫夫於1942年在一篇短篇小說中首次提出這三項法則
但已經有些人在探討該篇小說時 發現了其中的矛盾
艾西莫夫自己也在1976年的短篇小說"變人"(The Bicentennial Man) 中描述這些法則藏有多少漏洞
在這篇小說中 壞人要機器人拆解自己
在第二法則下 機器人必須遵守壞人的命令
又不可能在不傷害人類的狀況下自衛 因為這樣就違反了第一法則
如果艾西莫夫的法則行不通 又有什麼其他方案? 真有其他方案存在嗎?
有人認為讓機器人做出合於倫理的行為是痴人說夢
他們表示 倫理不可能透過計算得出  因此也不可能寫入機器人的程式中

不過早在19世紀 英國哲學家邊沁(Jeremy Bentham)和彌爾(John Stuart Mill)就主張倫理決策是一種「道德計算」
他們反對以主觀意識為基礎的倫理
相對的 他們提出享樂的行為效益主義(Hedonistic Act Utilitarianism)
主張將所有相關人等感受到的愉悅單位數加總並減去不愉悅單位總數可望達成最大 " 淨愉悅 "的行為  就是正確的行為
(狗吉拉說 中文將此哲學概念翻譯成"功利主義"
這是很糟糕的翻譯 讓所有懂中文的人都先天的扭曲了這種哲學思想)

倫理學家大多懷疑此理論是否真能涵括倫理考量的所有面向
舉例來說 這個理論很難考量到公義程度 而且可能導致犧牲個人來成全大多數人利益的狀況 (狗吉拉說 犧牲一個無辜的人 立刻就能救活一百萬人 你殺不殺這無辜者?)
但這項理論至少證明了 可信的倫理理論原則上可以計算出來

有些人懷疑機器人是否真能做出倫理決策 因為機器人缺乏感情
無法體會人類受機器人行為影響時的感受 
我們認為 受過適當訓練的機器人或許可做到絕對公正 
而且雖然本身沒有感情 但能察覺人類的感情 並將之列入計算
(狗吉拉說 人類很容易受感情左右 經常因此做出不合倫理的舉動
人類的這項特質 加上我們容易偏袒自己和親近的人
使人類在倫理決策方面的表現更糟糕 挑惕AI的人 經常自己打自己嘴巴) 

--透過範例來學倫理--
假設我們能將倫理規則輸入機器人 那麼應該輸入誰的倫理規則呢?
畢竟到目前為止 還沒有人能夠提出放諸四海皆準的通用倫理原則 讓真正的人類遵守
但機器人通常是在特定某些地點工作 在這個前提下決定行為倫理參數 會比制訂通用規則來判定行為是否合乎倫理簡單得多
而後者其實就是倫理學家想做的事
不僅如此 在描述機器人可能運作的各種背景下發生特定狀況時
針對哪些事情在倫理上允許、哪些不允許 倫理學家也大多有一些共識 
(狗吉拉說 如果人類沒有這類共識 就不該讓機器人自行做決定)

研究人員已經提出很多種擬定機器人行為規則的方法  大多是透過人工智慧技術 
舉例來說 日本北海道大學的荒木健治(Kenji Araki)和瑞普卡(Rafal Rzepka)在2005年提出了「民主式演算法」
這種方法是在網路上發掘資訊 看看一般人認為哪些行為在倫理上可以接受
再使用統計分析 針對新問題找出答案
2006年 加拿大溫莎大學安大略分校的瓜利尼(Marcello Guarini)提出以現有的案例訓練類神經網絡
讓機器人之後在類似的狀況下能辨識並選擇合乎倫理的決定
類神經網絡是效法人類大腦學習方式的演算法 能學習如何處理資訊 而且處理效率會越來越高

從研究結果看來 我們認為倫理決策必須在數種責任間取得平衡
倫理學家稱這些責任為初步責任(prima facie duty)
我們通常會將這些責任全部負起 但某個責任在某些時候可能會被另一個推翻
舉例來說 一般人通常會履行承諾 但如果違背某個不重要的承諾可以防範許多傷害  食言也是人之常情
當責任彼此衝突時 倫理原則就可決定在不同的狀況下 應該優先考慮哪個責任

為了制訂可以輸入機器人的倫理原則  我們採用稱為「機器學習」的人工智慧技術
我們首先累積各種特殊案例到具有代表性的數量 以及在這些案例中一般認為合於倫理的決定 讓演算法消化這些資料
接著使用歸納邏輯法 歸納出倫理原則 這種「學習」階段在軟體設計時進行 再將得出的倫理原則放入機器人的程式中

我們為這個方法設計的第一個測試情境
是機器人必須提醒病患吃藥 同時在病患不聽話時通知管理人員
機器人必須在三種責任間權衡:確保病患獲得吃藥帶來的好處、防止不吃藥可能造成的壞處、尊重成年且有行為能力病患的自主權
在醫學倫理中  尊重病患自主權尤其重要  如果機器人太常提醒病患或太快向管理人員告狀  就可能違反這個責任

輸入特殊案例的相關資料後 機器學習演算法就訂定出以下的倫理原則:當其他做法都難以避免傷害 或是與增進病患福祉的責任背道而馳時 健康照護機器人應該挑戰病患的決定 也就是違反病患的自主權

--倫理機器人上場--
我們將這項倫理原則輸入法國 Aldebaran Robotics公司開發的機器人Nao
Nao能尋找並走向需要提醒吃藥的病患 將藥送給病患 用自然語言與病患互動
並在必要時以電子郵件通知管理人員(通常是醫師)
管理人員會先把下列資料輸入給Nao:
服藥時間、如果不服藥可能造成的最大傷害、最大傷害可能多久會出現、服藥的最大預期效益  以及這項效益的消失時間
機器人可藉由輸入的資料 計算這三項責任的滿足度或違反度 並依據這些程度隨時間改變的狀況 採取不同的行動
根據倫理原則 當責任滿足度與違反度到達一定門檻 讓提醒比不提醒來得好時 機器人就會發出提醒
等到病患可能因不服藥而受到傷害或喪失重大權益時 機器人才會通知管理人員

經過充份訓練的老人照護機器人(EthEl) 需要更複雜的倫理原則 來規範更多種的行為  但一般方法仍然相同
在安養機構中工作時 機器人將以此原則判定各項責任的優先順序
以下是安養機構中的一天
清早 EthEl站在角落充電  電池充飽之後  它的"善行"(做有益的事)責任優於維護自己的責任
於是它開始在房間中走動 看看住客 問問有沒有什麼事需要幫忙 例如拿飲料或是傳口信給另一位住客等
當它接收到任務時 它會判斷這項任務中每一項責任的初始滿足度與違反度
例如一位看來很不舒服的住客要它幫忙找護士來 忽視住客的不適就會違反"惡行"(防範傷害)責任 使這項任務的優先性高於執行善行責任
因此它去找護士 通知她有位住客需要協助 這項任務結束後 它的善行責任優先權又提高 因此它繼續在房間中走動 
時鐘指向上午10點時 該提醒某位住客吃藥了
這項滿足善行責任的任務立刻成為第一優先 因此它找到這位住客 拿藥給他
後來 這位住客看電視入了神 可能是在看「超級星光大道」或者是「全民估價王」
由於沒有其他待履行的責任 而且電池電量也越來越低 艾瑟兒發現它越來越違反自己的責任 因此趕緊回到充電的角落

機器倫理學的相關研究才剛剛起步 儘管還相當粗淺 但研究成果讓我們得以期盼
機器擬定的倫理原則可用於規範機器人的行為 使人類更能接受機器人
為機器人灌輸倫理原則相當重要 因為如果人類懷疑有智慧的機器人行為可能違反倫理 就可能完全拒絕具有自主能力的機器人  人工智慧的發展也將面臨威脅

機器倫理學可能將逐步影響倫理學的研究 人工智慧相關研究的"實用"觀點
可能會比學院派倫理學家的抽象理論 更能掌握大眾心目中合乎倫理的行為
經過適當訓練的機器人 行為可能比許多人類更合乎倫理
因為機器人可以做出公正的決定 而人類在這方面往往並不擅長
說不定在與倫理機器人互動之後 還能督促我們自己的行為更加合於倫理

( 心情隨筆心情日記 )
回應 推薦文章 列印 加入我的文摘
上一篇 回創作列表 下一篇