字體:小 中 大 | |
|
|
2024/08/04 20:50:22瀏覽1286|回應0|推薦7 | |
從《中庸》的人性觀來看AI倫理學的建構 (發表於《人本AI的東方觀點》(遠流),出版連結) 王道維 國立清華大學物理系教授 國立清華大學諮商中心主任 國立清華大學人文社會AI應用與發展研究中心副主任
摘要 本文探討如何將儒家思想與人工智慧(Artificial Intelligence, AI)技術相結合,並提出以元宇宙(Metaverse)作為人工智慧中強化式學習的虛擬社群平台。筆者首先闡述人工智慧應用在司法領域可能帶來的潛在風險,例如AI的訓練資料存在偏差或隱性歧視等,因此需要建立外部監管機制。但隨著如ChatGPT這類通用型AI的出現,內建倫理也就愈發重要,甚至是不可避免的。在簡要介紹杜維明教授對《中庸》的詮釋,強調「君子」理念、「天命之謂性」、「修道為之教」和「信賴的社群」幾個觀點,可發現與培養AI內建倫理的方式有一定的契合度。儒家主張人的道德不是孤立的,而是在「信賴的社群」中學習與實踐,這可以啟發在元宇宙虛擬環境中如何讓AI與人類互動來內建其倫理價值。這個方法體現社群主義的精神,也因此引發了AI應在何種文化環境中成長、應該模仿哪些人等值得深思的問題。筆者認為如果能儘早結合儒家思想與元宇宙技術來建構智慧化與人性化的元宇宙來訓練AI,有可能更好的推動人機和諧共處,促進未來AI時代中的社會發展與文化傳遞。
一、背景:AI應用的司法問題
本文的主題雖然是關於《中庸》與AI倫理學,但筆者認為切入的背景可能要從AI和司法的關係談起,也才比較能貼近真實社會的樣態或情境。事實上,在過去一年(2023)橫空出世且有爆炸性發展的生成式AI[1](如ChatGPT)之前,在一些歐美國家(特別是海洋法系的國家),就已經有一些開始把AI應用於司法判決或訴訟事件[2]。而同為大陸法系的中國政府也開始大量並與科技公司合作,整理法院的判決書,將一些原本屬於法官判決的小額民事訴訟,交由AI來代為判斷處理[3]。所以我們可以看到這種應用已經在我們的社會上實際發生,未來只會越來越多。
然而,這些AI應用在司法上確實帶來了一些與人權、歧視或隱私相關的重要問題。其中最有名的案例,可能就是美國Loomis v.s. Wisconsin的案件[4]:法院因為使用一家民間公司開發的AI量刑輔助預測系統,可能導致對黑人再犯的機率比白人高而誤導法官的心證。這凸顯出AI的訓練可能因為蒐集資料的偏差(畢竟黑人犯罪被抓到的比例明顯高於白人)而存在有種族歧視的可能。
但是這個問題並不是一般人想像的那麼簡單,因為實際上這些AI公司的訓練資料中並沒有包含任何明顯關於種族的資訊,但即使如此,AI的演算法仍然可能藉由大量數據來計算初步看起來沒有直接關係的資料之間的潛在關聯,也就因此複製了人類無意間的隱性歧視。舉例來說,居住地點、銀行存款或就讀學校等等綜合起來,就可能連結到特定的族群或階級。因此這個問題雖然在Wisconsin最高法院未被認定是AI的問題(因為最後還是由人類法官決定,AI只是提供參考),但仍然引起相當多的爭議。類似的情況在英美和其他海洋法系的國家特別明顯,因為他們的司法裁判本來就需要引用大量的判例與數據來確認定罪與刑責的問題。
事實上,早在生成式AI大爆發之前,聯合國就有發出警告,認為AI或對人權構成威脅,呼籲暫停銷售和使用AI產品[5]。而2023年爆發性成長的生成式AI更讓人對AI的倚賴與擔憂之間的矛盾心情大大增加。這確實表明此類司法或倫理議題是真實存在的,而非只是少數人的杯弓蛇影。
筆者選擇從這個角度切入,是因為司法領域恰好同時涉及資訊工程技術、大數據、倫理道德、人權隱私,以及法律和司法管制等各種議題。可以讓本文的主題,關於AI倫理,更加凸顯。
二、從外部監管到內建倫理
有以上可知,鑒於AI所可能帶來的法律議題,目前大多數的研究都是集中於所謂的「外部監管」,也就是利用法律的文字與司法行動來限制AI的開發與應用,希望能需要具有系統透明性、可解釋性、可追究責任,以及確保數據來源的合法性或正確性等等。這些規範在歐盟、美國,甚至臺灣等地的科技部門都有相關的方式來提出。
這些規範無疑是重要且必要的,應該沒有太大的爭議。主要的關鍵是在於是否應該在AI模型的訓練或資料取得階段就要限制,還是說只要針對其後來應用的結果來確認不會造成危害,或是依照危害的影響層面來做不同的限制。前者可能會影響AI的發展與國家之間對AI技術的競爭(因為每個國家的限制一定不同),但後者則難以排除意外的誤用,就會出現究責不明的事情。畢竟所有AI都有內在的隨機性質,無法像機械工具那樣按照某種確定的規則來產生確定的結果。或者說,當AI的應用產生對人類的傷害時,有可能不是有任何人或任何部分有「錯誤」,只是其「正確運作」中某個機率有可能出現的樣態之一,無法完全排除。這部分已經有許多法律專家或社會學家在關注,如何從外部視角來審視AI的開發,以期望減少其帶來的風險和危機。
但是除了外部監管以外,還有另一個觀點是從內建倫理出發,可能會更接近哲學關懷的角度,即如何從AI的內部建立其行動倫理,也就是所謂的人工道德智慧(artificial moral agents)。近年來,這方面的相關論文特別多,特別是在哲學界。但是從技術上來說雖然仍有一定的難度,卻也一定會是未來需要面對的問題。
事實上,最早開始思考這個問題的並非哲學家,而是小說家。眾所周知,艾西莫夫的機器人三定律就涉及到這個議題[6]。儘管機器人三定律仍然是小說,尚無法真正應用在現實中的AI上,但艾西莫夫已經提出,機器人或AI機器人的內建道德倫理判斷不再僅僅受到外部限制,而是在執行任務時就已經在其內在運作。
這個從外部監管到內建倫理的趨勢似乎是不可避免的。原因何在? 因為目前AI的發展還是主要集中在弱AI,尚未實現真正的強AI。弱AI僅在特定限定範圍內工作,在某個範圍內可以達到高準確率,甚至超過人類的表現。然而,當涉及到強AI時,也就是通用型的AI,其特色在於其能夠跨足不同領域,具有通用性,甚至能與人類進行知識表達的溝通,通過圖靈測試[7]。未來還可能出現所謂的超級AI,它在各個方面都能超越人類,甚至具有某種程度的自我意識。
弱AI具有限定範圍,因此可以確定在這個範圍內應做什麼和不應做什麼,我們也可以知道在哪些情況下可以使用AI,以及在哪些情況下不能使用,所以只須明確的外部監管還算可行。然而,如果AI發展到強AI,它將跨足不同領域,讓AI自行判斷在何種情況下採取何種行動,而不是由人類告訴它該如何行動。在這個階段,AI將涉及更為嚴重的倫理問題,它就必然需要在內部建立倫理範疇。否則,我們將無法了解或預測它會根據什麼理由來做出決策。因此,在這種情況下,AI內部倫理建構幾乎是無可避免的。
雖然目前都認為這個「強AI」尚未出現,但是2022年底由OpenAI公司所開發出的ChatGPT以及後續其他公司的類似產品,已經可以說在文字表達的層次,幾乎實現了強AI的特色[8],因為ChatGPT已經不是只是一般的對話機器人,還可以將用來訓練的資料作整合且通順的整理,再用人類的語言文字表達出來。其回答的範圍除了有明確答案的問題(雖不保證正確),還可以是開放式的問題,又或是編故事、寫詩詞、抓重點、問判決、草擬文案企劃、轉換表格或甚至寫程式debug等等,幾乎只要能透過文字表達的幾乎無所不能,也標示著AI新世代的來到。
雖然ChatGPT只是在文字或自然語言層次的強AI,還無法完全順暢的連接應像辨識或機器行動,當然更沒有自我意識或完全的自主意識。但是所造成的影響遠大於我們目前所能了解的。畢竟在目前的網路時代,即使真人之間的溝通也越來越少是實體的進行,而是透過各種通訊軟體以同步或非同步的方式進行。因此如果這個模型被應用在手機或電腦上,當然有可能可以與使用者流暢的對話或代為處理轉達使用者的意圖來操作其他機器或對話,那麼這樣的「代理」功能就會逐漸被人習慣,後來會被「當成」一個真實的人[9]。在這種情況下,問題不再僅限於AI能做什麼或不能做什麼,而是這個AI系統的確可能需要有內建倫理架構,減少(可能無法避免)在其自動回應方式中產生對使用者或人類的危害,卻難以究責或調整,因為這樣的系統不會只有「一個人」,而是同時有許許多多的版本在全世界各角落使用者,影響難以估計。 三、杜維明的《中庸》詮釋之概述
以上所討論的AI內建倫理與本文的主題,儒家經典之一的《中庸》可能有相當的關係。事實上,《中庸》是四書中是最短的一篇,卻仍然與《論語》和《孟子》並駕齊驅,顯示出其重要價值,深入闡述了儒學的基本思想。就像朱子所說,他可以被視為孔門所傳授的心法[10],是核心要義。
本文嘗試著從哈佛大學杜維明教授所著的《中庸洞見》的角度來探討[11]。這本書原作為英文,是嘗試用更為普及簡明的哲學或思想的語言來向西方人介紹《中庸》的現代意義。後來被翻譯成中文版,共有五章。
簡要來說,杜維明教授對《中庸》文本進行了簡要解釋,但是並未深入比較不同版本等問題。他提出了《中庸》中最核心的觀念是「君子」。他認為君子既是一個真實的個人,也是一個理想化的個人。君子會戒慎於自己所看不到的地方,恐懼於自己所聽不到的事物。他們會克己復禮以實現仁,也就是說,他們會認真學習、修道、修業,讓自己的言行符合天道。我們或許永遠無法成為聖人,但是我們都可以讓自己成為君子。
更具體來說,儒家認為人性的根源來自於天。雖然這種天並不等同於基督教中有位格的上帝,但它顯然更不同於唯物主義的自然定律。也正是因為儒家將人性追溯到超越物質世界的「天」,所以人性並不是理所當然的由物質界就能完全建構出來,而且人性需要透過不斷自我修道和外在的教化來實現其天命,即所謂「天命之謂性,率性之謂道,修道之謂教。」
但是人性是可能是會偏離天命的,因此需要不斷的修養,才能更貼近最初由天所賦予的使命。所以對儒家來說,「君子」本身不是一種靜止狀態,更是一個過程,是一個需要有方法的修道過程。杜維明教授解釋,儒家對此所提出的方法論是「誠」,表示不論處於何種情況,都要謹守自己。這可以簡單理解為克己復禮,所謂:「誠者,天之道也,誠之者,人之道也,誠者,不勉而中,不思而得,從容中道」。這意思就是說:修道的方式是保持不偏不倚,不要讓自己過於鬆散,然後讓自己能夠在每一個行為思想上持續地體察自己的內心,以達到天人合一的境界。因此,這些觀點都強調個人性的實踐,等於是從天命到君子個人的修道方法關聯了起來。
接著,杜維明教授在這部著作的第三章討論了信賴社群。即君子不僅是一個獨立的個體,而是生活在家庭、社會、國家等社群之中,他的角色與所處的社群有關。隨後,在第四章中,談到了道德形上學,指出儒家思想可能不僅僅是一般倫理道德觀念,例如君君臣臣父父子子、什麼該做什麼不該做這種層次的,而是還包括形上學的層次,《中庸》在這個層次上的著墨明顯比其他儒家經典更值得探究。
進一步來說,杜教授認為儒家思想中,修道不僅僅是個人的過程,還包括孝順父母、效法先祖遺風遺德,並推展到整個社會,從而爲社會建立一個在精神層面上共同的價值觀,並形成的政治體系。這與西方基於基督宗教而強調的天賦人權,因而建立起以權力制衡為基礎的政治制度有所不同。
但是在《中庸洞見》的第二版中,杜維明教授新增了第五章,探討儒學的宗教性。主張儒學可能不僅僅停留在形上學層次,而是也具有某種宗教性質,儘管不同於西方的一神教脈絡之下的那種有神論。他也對儒家思想的超越性做出了更深入的闡釋,強調為什麼這種觀點對於發展儒學的現代性是非常重要的。筆者個人認為,這本著作相較於其他新儒家的作品,最重要的特色就是在道德形上學以上,往儒學的宗教性方面來突破,也因此對眾人所形成的社會價值,還是可以有一定的批判性,畢竟個人的天性與使命來自於天,所以信賴社群也需要回應上天,並非如西方現代社會崇尚的自由主義那樣,好像大部分人所普遍接受的事情就應該是正確的。 四、以元宇宙作AI强化式學習的虛擬社群
杜維明教授以新儒家的觀點來對《中庸》或儒學的現代性作的詮釋,又該如何回應前面AI內建倫理的需要呢?筆者認為有以下幾個可以連結的角度:
一、前述人工智慧技術發展的過程,即從弱AI到強AI(或許再到超級AI),從監管的角度來看,一定是從外部監管(也就是法律和制度層面),逐漸轉向內建倫理的層次。當超級AI出現時(但或許永遠不可能到達),它的內建倫理也很可能暗示著它具有某種自主意識。換句話說,它不僅僅執行倫理的「行為」,還能擁有自我意識,知道自己是誰,以及為何要執行這些行為。那時的問題就不只是倫理學的問題,更是認識論與形上學的領域,引入更高層次的道德與哲學挑戰。就此而言,儒學不再只限於倫理的範疇,而往刑聖學或宗教性發展,可以在未來對AI內建倫理有更好的對話基礎。
二,從《中庸》起首的「天命之謂性,率性之謂道,修道之謂教」的中心思想來看,的確是由天命確定了人性的價值和基本尊嚴。因此如何使人性遵循這種性質,並實現應有的倫理行為,這就是「率性之謂道」的「率性」,而「道」也因此展現在某種形式的倫理規範上。因此至少在形式上與AI的訓練與發展有一定的相似性。更重要的是,儒家思想中強調個人道德不是獨立的,而是在一個信賴的社群(例如家庭、社會或國家)中實現的。因此,個人的道德觀並不應該是空洞的教條(如過往許多反儒者所認為的),而是在人與人互動之間所產生的價值實踐。所以這可以提醒我們,除了外部介入的監管技術或資訊工程的演算法以外,AI內建倫理也是需要一個「社群」來培養。
若用西方倫理學中的語言來描述,在實踐AI內建倫理的方是上面不僅僅有效益主義(可以說是極大化人類的利益),也不僅是自由主義(只要不犯錯傷害人,就可以盡量發展)。從《中庸》或儒家的人性觀來看,人性必須在一個環境裡(信賴社群)中透過學習與自我天性的啟發而成長,是從小到大受環境優良榜樣的影響而淺移默化的成長。這種「內化」的過程其實比較接近二十世紀末西方發展出的「社群主義」[12]。因此從儒家的角度來看,我們會更關注AI應該模擬誰?應該在甚麼樣的文化環境中成長?是否融入群體?成為什麼樣子的人?是否符合創造他的「人意」?等等。畢竟如果強AI的目標是模擬人類,那麼他應該首先學習人類應該做的事情與相關的思考折衝,而不僅僅是追求一程不變的準確率或只要不傷害別人即可。
四、從技術面來說,未來AI的技術上一定會需要發展的是強化式學習(Reinforcement learning),這種方法可以在虛擬環境中學習如何解決問題,並建立內部參數結構。事實上,強化學習現在已經發展到一個地步,可以在虛擬環境中先學習到一定程度而可以應用在真實世界的某些問題上。2022年底出現的ChatGPT也是利用強化式學習才能有目前的能力。此外DeepMind更早所開發的Gato[13],也是可以在數百件不同的遊戲上展現強化式學習的通用效果。
但是未來如果要訓練一個具有內建倫理的強AI,這個強化式學習必然與真實的人類有互動並且從中學習倫理的原則。訓練ChatGPT的「人類反饋式強化學習」即為一例,但是目前這類的訓練方式還是針對特定的文字問題與特定的回答方式,並非「全人」式的典範或人格影響。未來一定還會需要把周圍情境納入,讓AI可以自行判斷在甚麼情境下說出最適當的語言或作出最適當的行為,不再僅僅倚靠監督式學習的那種外部監管。要達到這個目標,最可能的情境就是應用在元宇宙(Metaverse)的環境中。
五、元宇宙在最近兩年的發展也非常受關注,其本質上是一種模擬人類環境的虛擬空間,讓真實的人類藉由感知器材(如VR或其他穿戴式裝置),虛擬的進入其中扮演某些角色,並且可以在身體感之方面(如視覺、聽覺、觸覺等)得到相對應的回饋,讓人彷彿身歷其境。不同於目前的AI都是應用在真實世界,所以很難廣泛有效的向人類學習(只能在某些特定的方式或語境上),畢竟人類真實的社會太過複雜。但是當AI在這個虛擬環境中與真實人類互動,從AI內建倫理的角度來看,反而是另一種信賴社群的建立,相當於讓他在這個環境中與其他人類或AI互動學習,逐漸調整自己的內部參數,可能還會建立自己的倫理觀。
六、這種方法之所以不同於我們之前討論的AI應該做什麼和不應該做什麼,乃是因為AI被當成某種動物或孩子,與人類在元宇宙中的分身一起互動和學習,並理解人類如何應對各種情境。因此,這種方法建立的倫理觀和我們目前通過外部建立的價值觀不同,因為它是直接從一群人類開始學習的。當然,筆者也需要說明,要建立這樣能夠在元宇宙中結合視覺、聽覺、觸覺以及其他電子資訊的多模態AI,目前雖然已經有些雛形[14],但要達到能順利與人互動可能還有相當的難度,但並非完全不可能。筆者個人相信以目前元宇宙與生成式AI的發展速度,有可能不到十年就讓這樣的雛形成為真實。
五、未來將顯現出的問題核心
即使我們可以設想出這種倚賴於儒家教育或修道的方法所訓練出來,具有內建倫理的AI機器人,也會引出了一些之前可能沒有仔細思考過的問題。例如,在元宇宙中,誰將是教化AI的聖賢或社群?當然,我們無法將一位孔子或其他古代哲學家放入其中,所以誰將擔任這一角色呢?儒家的思維若在現實社會都有實踐的困難,是否在元宇宙的虛擬世界會比較容易?或是更加困難?若以目前網路社群的運作方式而言,這樣放任AI向社群玩家學習互動的結果,無疑會被教壞[15],根本沒有任何倫理可言。也就是說,平凡如我們(或許連儒家的君子都還稱不上),內在的罪性或私慾恐怕必然的也會傳染到AI身上。但是如果我們不只要一些規條,還需要有好的榜樣,才能建立AI的內建倫理。那誰又會是這個儒家口中,可以在虛擬世界的「君子」或「聖賢」呢?
此外,用這種方法中產生的AI內建倫理,如果出了虛擬世界而真的應用在社會上,是否仍能符合我們人類自身的公共利益?我們是否應該同理地視之為一個正式的人?還是說他是否應該被賦予某種責任,可以為其失敗的結果受到懲罰或監禁之類的?像這類的問題,可能就需要留給哲學領域或心理領域的研究者投入相關研究。以上筆者只是從AI技術的發展與儒家修道成聖的觀點作個結合與對照,試著拋磚引玉出可能的方式與問題。期望未來AI的發展中可以看到更多儒家或東方思想也能帶進某些重要的元素,豐富我們對未來AI世代的想像與預備。
六、結論
在探索人工智慧(AI)與儒家思想的融合之路時,本文認為儒家的核心理念與培育AI的內建倫理有著重要的契合性。儒家強調「天命之謂性」,雖然人性本善但需要透過「修道」的過程來實現天賦的品德。這啟發未來資訊工程人員在設計AI系統時,應該要賦予其一定的道德意識和價值觀,使其行為符合人類社會的倫理準則,而非僅僅追求功能最大化。
儒家所倡導的「君子」理念,旨在培養一種理想的人格典範,追求內外統一與言行一致的境界。對於AI而言,這意味著除了外部監管機制外,更需要在系統內部植入相應的倫理機制,使其能自主判斷是非,主動約束自身行為。這種內建倫理的形成,需要一個類似儒家所說的「信賴社群」的環境,讓AI通過與人類的互動而內化相應的價值觀念。
元宇宙作為一個高度模擬現實社會的虛擬平台,或許正是孕育AI內建倫理的理想場景。在這個虛擬世界中,AI可以與現實人類的數位化分身進行各種情景模擬和社會實踐。在不斷調整和優化的過程中形成合乎人性的行為模式。當然,構建這樣一個元宇宙倫理訓練平台本身也面臨著諸多難題,例如如何營造典範性的文化環境?誰將扮演「君子」或「聖賢」的角色?AI在此環境中學習的倫理觀是否適用於現實世界(特別是如果儒家思想也面臨著類似的挑戰)等等,這些都有待我們未來在哲學、心理學、資工技術等領域作更深入的探討。
總結來說,本文將融合儒家思想與元宇宙技術為人工智慧系統注入內建倫理的思考面向,為我們描繪了一幅人機和諧共處的願景藍圖。隨著AI技術的不斷進步,社會也將面臨更多倫理挑戰,需要我們在哲學智慧和科技創新的交相呼應下,共同開拓一條可持續發展的路成。只有讓人工智慧系統內化人文關懷,我們才能真正安心踏上人機協作的新時代。
[1] 生成式AI是AI眾多演算法之一。以ChatGPT為例,是負責將輸入的文字資料轉換成另一些文字資料輸出,但後者的輸出可以是前者的對話、翻譯、查詢、延伸、歸納、摘要、解答等等各種不同的關係。而其他種的生成式AI可能以圖像轉圖像,或以文字與圖像之間互換,或其他更多如文字、影像、語音、影片、行動等等各種資料模態間的轉換生成。即使同樣功能的生成式AI也會因為訓練資料與模型設計的不同而有相當大的差異。& [3] 可參考以下報導:AI審判的時機來臨了,《中國時報》(3/31/2023)。引用網址:https://www.chinatimes.com/newspapers/20230331000467-260109?chdtv。 [4] 如美國著名的Loomis v. Wisconsin案,可參考Harvard Law Review, Vol 130, pp. 1530, (March 2017) ,網址:https://harvardlawreview.org/print/vol-130/state-v-loomis/ (最後瀏覽日:2023年12月24日)。 [5] 可參考相關報導:因應AI發展風險 聯合國秘書長籲制定一致的全球策略,聯合報 (11/3/2023)。引用網址:https://udn.com/news/story/6809/7549571。 [6] 參Issac Asimov, Run Around. I, Robot, The Isaac Asimov Collection ed.. (New York: Doubleday, 1950). ──編者著 [8] 王道維,當Google遇上ChatGPT──從語言理解的心理面向看AI對話機器人的影響,風傳媒(2/11/2023)。引用網址:https://www.storm.mg/article/4725780?mode=whole,最後瀏覽日期:2023年5月15日。後來增補的版本亦可直接見於作者王道維的部落格原文:https://blog.udn.com/dawweiwang/178350327,最後瀏覽日期:2023年5月15日。 [12] 可參考維基百科中對「社群主義」的說明與介紹:https://zh.wikipedia.org/zh-tw/%E7%A4%BE%E7%BE%A4%E4%B8%BB%E7%BE%A9。 [14] 多模態的AI可參考,AI新戰場開啟 Google與OpenAI決戰多模態大語言模型,鉅亨網新聞中心(2023/09/19)。引用網址:https://news.cnyes.com/news/id/5328356。 [15] 可參考,一天就下架! 微軟人工智慧聊天機器人被鄉民「玩壞了」,風傳媒(2016-03-26)。引用網址:https://www.storm.mg/article/94021。 |
|
( 時事評論|公共議題 ) |