字體:小 中 大 | |
|
|
2023/03/12 17:45:13瀏覽8780|回應1|推薦3 | |
道可道,非神道?──從基督信仰看能言善道的ChatGPT與其對教會的挑戰
(本文網媒版發表於《舉目》雜誌:https://behold.oc.org/?p=59126, 全文亦受邀刊登於《文化宣教:跨學科現象與理論研究》一書,曾劭愷博士主編)
王道維 國立清華大學物理系教授 國立清華大學諮商中心主任 國立清華大學人文社會AI應用與發展研究中心副主任
2022年11月30日,美國科技公司OpenAI公開發表目前最火紅的AI對話機器人ChatGPT[1],兩個月內吸引超過一億人註冊成為用戶,遠快過過去所有的網路應用程式[2],真的可以用橫空出世來形容。ChatGPT可以就開放式的問題提供意見,又或是編故事、寫詩詞、抓重點、問判決、草擬文案企劃、轉換表格或甚至寫程式debug等等,幾乎只要能透過文字表達的幾乎無所不能。在這之前,只有如鋼鐵人那樣的科幻電影情節中,才會有個機器人彷彿可以幾乎聽懂任何問題來回應主角的提問,而這幾個月來已經出現無數的文章在作相關報導,彷彿AI時代真的已經來臨[3]。
對於基督徒而言,這波人工智慧(Artificial Intelliegence, 以下都簡稱AI)的浪潮也帶來了一些重要的信仰問題。例如,基督信仰中,上帝是萬物的創造者,人類也按照上帝形像與樣式所創造的,有著不可取代的價值和尊嚴。但是,當AI的發展(特別是本文所要談到的ChatGPT這類近乎通用型人工智慧)似乎越來越接近人類的智慧時,基督信仰該如何回應這些挑戰?應該要更為善用這樣的工具?還是應該把AI當作魔鬼的化身,拒絕其發展?是否仍能提出有價值的觀點或提醒?或是隨波逐流被動接受世俗社會所給我們的框架?事實上,筆者相信這些問題不但是對基督徒有重要意義,也是許多社會大眾需要一起認真面對的問題,而基督信仰的若干基本原則也可以給我們一些重要的提醒。
本文將先簡介目前AI運作的基本原理,並約略從ChatGPT這類AI機器人的訓練方式來了解其特殊之處。進而分別從聖經的創造論、救贖論與啟示論來看AI的發展如何與基督信仰的核心有所呼應並對照出差異。最後本文也會特別從一般語言理解的五個層次(字詞、訊息、意見、知識與洞見)來檢視ChatGPT與使用者的心理互動。希望能以此來說明基督教會在牧養現場或社會關懷上可以更重視哪些方面的調整,好在這個「已經來到」(不再是未來)的AI時代能有更為「道成肉身」的信仰實踐[4]。 (關於此篇文章讀者的提問與回答,請見:關於「ChatGPT與基督信仰」常見的問題與回應) 由於文章篇幅不小,以下先提供本文大綱給讀者參考: 一、簡介AI的基本圖像與常見誤解 二、ChatGPT:結合流利程度與回答結構的訓練方式 三、從創造論看ChatGPT:上帝形像的必然彰顯 四、從救贖論看ChatGPT:AI原罪需持續改善但受限於人類自身 五、從啟示論看ChatGPT:可承載上帝的道而帶來牧養新挑戰 六、直面AI時代的到來與具體建議彙整 附錄:語言文字理解的五個層次
一、簡介AI的基本圖像與常見誤解
雖然本文的主要內容是談基督信仰與ChatGPT的關係,但是後者作為當前AI最為大眾所熟知與熱衷討論的單一產品,仍是應該在整體AI的架構下有所認識,才能避免過度的想像而造成不必要的誤解[5]。坊間或網路上介紹AI的書籍文章已經相當多,筆者此處就主要從AI整體的三大結構,分別是資料來源、演算法與應用場域,來勾勒出粗略的圖像,幫助讀者更容易了解本文後來提及的一些觀點並釐清常見的誤解。
1. 目前AI是以數據為基礎而非規則為基礎:AI的發展是從20世紀中期就已經萌芽,至今已超過60年,並非新穎的概念或技術。這半個世紀以來AI經歷了幾波浪潮與消退,如今在2010年後又重新再起。其中固然與硬體設備的突飛猛進並網路大量數據的利用有關,但最核心的原因仍是其核心關鍵,機器學習(Machine Learning)的演算法,成功擺脫過往「以規則為基礎」(rule-based)而轉用「以數據為基礎」(data-based)的架構來建造,才可能開始讓電腦有效的模擬出一些人類的複雜行為,如影像辨識或語音文字生成。例如,若目的是希望電腦自然地組織人類的話語來回答(而非制式的模板),傳統的想法是需要先教電腦關於語言學的基本知識,例如哪些是名詞、動詞或介繫詞等等,才能放心讓他來組織,但這樣的效果仍然相對呆板且錯誤百出。目前的AI發展幾乎已經完全放棄這條進路(包括本文的主角ChatGPT),而是讓電腦直接讀取大量的自然語言文本,藉由計算同一個字詞在不同前後文中的相對出現機率,使其模擬在特定脈絡中的文字表達。而目前許多人常用的Google網路翻譯也是因為採用這類演算法而大大提升其可靠程度。
2. AI高維度空間中的模擬計算與人類大腦不同:如前所述,AI之所以可能模擬人類的某些特定的行為(例如影像辨識、寫文章或下圍棋等),並非事先設定好特定的規則來達到目標,而是利用已經標註好的大量數據作為基礎,讓機器學習的演算法(如類神經網路,Artificial Neural Networks)中大量的參數可以自動調整,模擬出希望得到的效果。由於這樣的模擬過程是在超高維度(數百到數千萬或更多的參數)空間中所作的計算,因此往往需要大量的計算資源與大量的數據來訓練校正。但麻煩的是因為有如此多的參數可以調整,所以萬一結果有錯,幾乎不可能找出可解釋性的理由來除錯,只能不斷try and error。因此AI的計算方式與人腦的學習模式是非常不同的(人腦並不需要這麼多的資料來學習),所以我們目前完全不需要以為現在的AI彷彿有人的意識或靈魂。因為即使如此,對人類社會的影響也已經足夠巨大。
3. AI的應用幾乎都受限於特定的範圍或形式:AI的應用領域可以粗分為「弱AI」、「強AI」與「超級AI」三個類型或階段。當前所有的AI產品都是屬於弱AI的階段,需要針對某個特定的功能來作數據標註的處理與演算法的優化,因此也只能應用於某些特定的領域(例如AlphaGo只能下圍棋),或以特定的方式來接收資訊並呈現結果(例如ChatGPT只能以文字輸入與輸出)。強AI也可以稱作「通用型AI」(Artificial General Intelligence, AGI) ,代表可以在相當廣的範圍內處理各種類型的資料或功能,彷彿人類大腦所能作的許多不同工作。本文所討論的ChatGPT若限制在文字處理的範圍內,可以算是當前最接近這個概念的AI產品,因為可以展現各種不同的功能(創作、回答、翻譯、改寫等等)。而超越人類智慧的超級AI目前可能僅是一個概念上的推演,僅出現於電影小說中。許多對AI內涵不夠了解的民眾可能因為某些新聞渲染而受到影響,以為目前的AI就要進入具有自我意識或主體性的能力[6],但其實這更多是因為人類自己的移情作用[7],會對能有回應的玩偶、動物、或機器產生想像力的投射。真實的AI發展距離超級AI仍是非常遙遠,甚至可能是永遠無法達到的。
以上簡略分享的三點當然不足以介紹AI當前發展的許多豐富面向,但應該足以協助讀者有個基礎的瞭解而進一步認識當前的ChatGPT並評估對基督信仰相關的影響。
二、ChatGPT:結合流利程度與回答結構的訓練方式
在AI許許多多的應用類型中,ChatGPT是屬於一種稱作「生成式AI」(Generative AI)的對話機器人。不同於一些作常見作辨識、預測、判斷或分類的AI模型,ChatGPT是專門訓練用來從一堆輸入文字來產生另一堆輸出文字作為其訓練目標。而這些輸出的文字當然希望是人類可以看得懂並且能夠正確有效的回應。從這樣的架構就可以理解,許多對ChatGPT的誤解是使用者錯把這個生成模型當作搜尋引擎來使用[8],以為應該可以提供正確即時的訊息[9]。這顯示人類實際的需求往往是複雜多元的,很不容易用特定功能的AI來完全滿足。
那麼ChatGPT比起之前就出現過的對話機器人(如Google的LaMDA或微軟的小冰等),又有哪些特別的能耐而可以造成這樣的令人驚豔的成果?這部分涉及到AI對於自然語言處理的技術內涵,但我們可以簡單的從三大部分來說明。或是讀者有興趣聽聽開發者OpenAI公司執行長Sam Altman接受MIT Review的專訪[10],也會更有感這趟神奇的旅程。
1. 大型語言模型:首先ChatGPT是源自GPT3.5的大型語言模型(Large Language Model, LLM)而作更精緻訓練與應用。也就是說它是透過數千億字的海量資料來作訓練,可以調整的參數高達1750億個。用這些參數來模擬每個字與前後文其他字的關係。最後再根據提問者的問題或之前的回覆來計算對應的各種文字組合機率,將整體機率最高的結果作為「答案」來提供[11]。由於ChatGPT訓練時所用的文字資料非常多,包含不同語言的資料,以及彼此間互相翻譯對應的文字,所以它可以回答的相當流利不呆板,如果資料不足也可以從其他次要關係的資料(或甚至透過翻譯其它語言)來自動彌補相關文字,彷彿是真的有個無所不知的人類在背後回應。事實上,如果使用者直接按「重新產生(Regenerate Response)」鍵就會看到其他的文字回答。因此可知這樣AI其實無法保證這些內容是正確或適當的,只能說是根據其訓練資料而計算出最可能的「文字組合」,提供使用者參考。
2. 人工回饋的強化式學習:相較於之前的文字生成,ChatGPT成功更重要的因素,應該是透過人工標記員的反饋調教。也就是說,開發團隊(OpenAI公司)使用數十位人工標記員來給它的回答作評分[12],讓ChatGPT的文字生成模型再透過一種稱為強化式學習的方式來強迫自己將本來機率較高(但不一定符合人類論述邏輯或可能有許多偏見或錯誤的結果)的回答調整成較低的機率,直到輸出的結果是符合人類標記員所認可的標準。這種稱作「人工回饋的強化式學習」(Reinforcement Learning from Human Feedback,RLHF)[13] 的確讓ChatGPT輸出的文字免除許多其他對話機器人因為訓練資料中所包含的錯誤、偏見或不適當回應方式降低許多。
事實上,使用過ChatGPT的人會發現,同類型的問題往往也會得到類似模板的回應架構,使其內容看來更有說服力或至少有個正式文章模樣。如果刻意加入一些敏感字詞,如自殺、嚴重疾病、種族歧視等等,ChatGPT可能就會停下來說無法提供更多意見,建議詢問相關的專家或求助專業領域的工作者。雖然這讓許多獵奇的使用者可能覺得無趣,但至少減少不必要的困擾。目前因為這類生成式AI的出現(包括用文字轉圖像的Midjourney之類的其他AI工具),市場上已經開始出現「提示工程」(Prompt engineering)[14]的工作,也就是利用特定的語法讓AI作更精確有效的回應。這樣大家或許更能了解為何ChatGPT應該是一種更聰明的工具,而非更像人類的生物。
3. 使用當下的即時訓練:除了以上兩個主要的特色以外,ChatGPT也引入了一次性學習(One-Shot Learning)的方式,讓AI可以根據使用者前次的文字即時調整回應訊息,讓同一串的對話可以彷彿緊扣著主題。畢竟我們可以想像,不管這樣的AI事先經過多少這樣的後天訓練也不可能符合所有的使用者習慣的說表達方式,所以這樣的設計就讓AI會對當時的對話體貼使用者的習慣或預期,提升使用上的好感度。但是這個功能的問題在於,這也代表使用者可以間接引誘ChatGPT來提供不實或錯誤的回應。例如有朋友詢問2+5等於多少,GPT回答是7,但是他故意說老婆認為這個答案不對,應該是12,GPT就馬上應和者說你說得對而調整答案……(但筆者發現這類數學問題已經在現在的版本調整過,不再那麼好騙了)。若從另一個角度來看,這也會使得ChatGPT日後走向客製化的模型設計,能針對不同使用者而有特定的表現方式或功能強化,例如調教成伴侶模式[15]或其它的角色扮演。
透過以上簡單的說明,希望讀者可以了解ChatGPT這類AI機器人與人類說話表意最大不同之處在於,它並非「有意識」地提供「答案」,而只是某些文字組合與其機率。這也是為什麼它可能申論題回答得不錯,但數學題往往很差,因為他把數字當成文字在處理,尋找最可能出現的數字答案而非實際做計算[16]。因此,GPT所提供的文字組合是否能適當的「回應到外在世界」或是「邏輯前後一致且精密的正確」,其實常常還需要人類讀者自行補充許多想像與基本常識,才能讓AI的回答看起來有意義[17],絕非無所不能。但是即使如此,由於人類自己表達與接受訊息本來就不是一板一眼絕對無誤的,甚至還帶有更多「心理層面」的活動,以至於這樣的不足卻已經會帶來相當大的衝擊。這部分本文後段會有更多的說明。
三、從創造論看ChatGPT:上帝形像的必然彰顯
在人類歷史上,影響社會變化最劇烈快速的方式不外乎兩個,一個是戰爭的爆發,另一個就是科技的發展。我們幾乎沒有人希望發生戰爭,卻有許多人期待現代科技可以更多發展來解決現有的問題,或是滿足人類更多的慾望或想像。在這樣的背景下,就算基督徒因為信仰的緣故不會天真的以為科技可以拯救世界,但也很難否認相關的發展仍有其重要的意義,只是當前AI與如今ChatGPT這類的對話機器人顯然會帶來許多以前未曾想像的狀況與挑戰。
1. 上帝的形象包括創造像人類自己的被造物:從聖經創造論的角度來看,創造發明本來也就是上帝創造人時所賦予人類的「上帝形像」(Image of God)之一,本身並非罪惡之事,甚至可以視為一種上帝榮耀的彰顯。這部分雖然沒有直接的聖經經文,但明顯符合聖經創造論的架構,並且是許多神學家都已經有指出的[18]。但如果我們依循著這個脈絡作更進一步的延伸,馬上就可以了解到既然「創造」也是上帝加諸於人類的「上帝形像」之一,那麼人類按照這個形像的設定,去創造「以人類的形像與樣式」而展現的AI,反而是必然的結果。
神說:「我們要照著我們的形像、按著我們的樣式造人,使他們管理海裡的魚、空中的鳥、地上的牲畜,和全地,並地上所爬的一切昆蟲。」(創1:26)
事實上,人類自有文化以來,早就創造更多想要模擬人類自己的物品,包括小孩玩的娃娃、藝術家的人像、演員的表演、到電影中的外星人想像等等。這些都在反映出人類對於創造一個類似自己的渴望與努力,並在與其對話中找到某種重要人生意義與自我認識。目前AI唯一不同的是,他比之前所有的人造物更能藉由文字語言反應出人性的某種本質(而不只是外在的樣貌),使人更不容易區分真實與虛假。但是如果我們也同意「上帝的形像」重點也不在於外表(因為上帝是靈,沒有物質的形像,而人類顯然受限於物質的身體),那就可能必須承認,人類最高的創造力是創造出像人類自己內在心靈的東西(如AI),正如同上帝創造的最高智慧展現是在有祂自己形像與樣式的人類!
以此而言,基督徒或許不但不需要排斥AI,甚至應該以更為認真與崇敬的心看待這樣的發展。而我們也因此看到ChatGPT的特殊之處:它是藉由僅有人類才能掌握的語言文字來通往「通用型AI」的方向。因此,比起表面上像人類外型的機器人或針對某些功能才能贏過人類的AI,ChatGPT的發展已經有不同於以往AI發展的意義。這個評估並不是從技術面,或是號稱前沿科技就跟風高舉,也當然不是因為可能取代部分人類就盲目反對。對基督信仰而言,所評估的標準也就是回到起初AI這類機器或演算法被開發時,所真正追求的目的來定位。
2. 創造AI的目的是管理人造世界而非管理人類:那我們對於AI的創造目的應該是甚麼呢?回到創1:26的經文,我們可以看見上帝按照他的形像與樣式造人,目的是為了讓他代為管理上帝所創造的世界。因此我們也可以合理的推論,人類按照自己形像與樣式來創造的AI也應該要以「代表人類管理人類所建構的環境」為主要的目的。這裡要仔細說明的是,我們不應該讓AI來取代人類管理大地,因為管理大地的責任是被委託於人類,而非人類的創造物,這兩者應該要有所區分。
更準確來說,如我們所見,18世紀工業革命之後大量的人造物品已經充斥於本來的自然生活,包括各種水泥高樓、道路工廠、交通工具與電腦網路等等。這些「非自然」的環境顯然是人類利用上帝賦予的創造能力而作的科學發明,已經是我們日常生活無法離開的重要部分,的確可以藉由AI的應用來協助人類管理得更好(舉例來說,以AI來管理交通或環境汙染)。若能這樣作,人類的角色就可以從這些人造環境中的挾制脫離出來,更認真地以上帝託付的管理者的角色,好好「用心對待與享受」這片自然土地與其中的各樣生物,用不同於那些無生命之人造環境的對待方式,讓我們的靈魂更接近創造他的主。
3. 創造論的角度可以成為全人類共同的基礎:因此,若能更準確地了解人在上帝創造次序中的位置,AI的發展本身應該是值得期待的。即或有人從信仰上不認同上帝創造人類且賦予的管理大地的使命,應該仍是會同意AI的發展需要有清楚的目的才行,否則無法用來支持所需要的巨大投資與應付可能發生的重要影響。相信在這一點上,基督徒與世俗社會的價值觀本身的觀點可以是相當接近的,值得更多的深化與了解。
四、從救贖論看ChatGPT:AI原罪需持續改善但受限於人類自身
1. AI原罪使人類創造的秩序混淆:但是我們都知道,整個創造的故事並沒有那麼簡單。基督教的創造論除了首重創造的「目的」以外,也同樣強調創造的「秩序」(Order),代表創造的上帝是有計畫有規則的安排祂認為美好的被造世界。雖然這個「秩序」不一定都能簡單的被理解為物理原理,甚至也可能窮盡我們的思考或研究也無法完全了解,但科學家與神學家都是有一個類似的信念:相信這個世界有其規律可循而非本質性的虛無混亂[19]。而從神學角度來看,一個最基本且很明顯的倫理秩序在於人類是被造者,地位應低於其創造者上帝。因此伊甸園的事件也就可以被理解為,被造的人類受到蛇的誘惑,想要與上帝同等,因而違背這個創造次序,帶來了原罪。
蛇對女人說:「你們不一定死;因為 神知道,你們吃的日子眼睛就明亮了,你們便如 神能知道善惡。」 (創3:4-5)
因此基督教信仰並不只是單單的創造論,更提到罪的影響與救贖的需要,而後者更是基督宗教有別於其他宗教信仰的核心關鍵。當應用於AI的發展時,我們就會發現當AI的擬真度越來越提升,我們也可以感受到那個創造者(人類)與被造者(AI)之間的秩序是有可能被混淆。若再加上我們人類本身又並非全能卻慾望無窮,也可能讓部分人太過於相信AI而產生依賴或刻意用於傷害他人,造成在隱私權、智財權、工作權等領域帶來法律與倫理的挑戰,放大這個社會已有的偏見或歧視言語[20]。而這樣的憂慮不但是合理的,而且事實上已經正在發生。因此如果人類也是上帝的被造物來類比,我們前述這些AI近乎本質上的缺點(例如只是機率計算模擬而無法排除錯誤)也許可以用「AI原罪」來描述,代表不符合創造者的期待或規劃的部份。但是筆者此處也需要很謹慎地強調,由於目前的AI完全沒有任何實質意義上的「自由意志」[21],所以並非是道德行為的主體,很難直接用傳統神學或道德哲學的用語來等同。
2. AI繼續被救贖改善時的矛盾之處:以上筆者作此類比的重點在於:即便伊甸園中亞當夏娃的犯罪是因為運用上帝所創造的自由意志,在本來可以不犯罪的情形下選擇犯罪,使罪進入世界(羅5:12),但是目前我們這些亞當的後裔的確也是在這個不得不犯罪的肉體中得到救贖,生活在目前這個幾乎無望改善的世俗世界,並且仍在盼望得到上帝完整的救贖[22]。這代表我們仍能從救贖的角度來看AI的應用可以改善調整的方向,或可類比於基督教的「成聖」的操練。
「我心裡柔和謙卑,你們當負我的軛,學我的樣式;這樣,你們心裡就必得享安息。」(太11:29) 「你們該效法我,像我效法基督一樣。」(林前11:1) 「所以,你們該效法神,好像蒙慈愛的兒女一樣。」(弗5:1) 「你們當以基督耶穌的心為心。」(腓2:5)
雖然基督教會中對於成聖的方式有許多不同的傳統,但最終的目標都是希望能效法並活出基督耶穌的生命。因此,我們可以合理的推論,未來若要讓AI可以減少所謂的錯誤或危害,不可能只是用設定紅線規則的方式來訓練AI以減少犯錯,那幾乎等同於律法主義,只能減少犯錯而無法真正仿效人類。事實上,由於前述所提及,AI程式內部有大量的參數需要調整(ChatGPT就有1750億個),所以不可能在每個方面都設下明確的「規則」,所以才需要特定的訓練方式(如前述所提及的「人工回饋的強化式學習」)。
但問題是,如果AI被救贖的目標是更好的仿效人類,又該效法哪一種人呢?或是該用哪類的文化與價值觀?不可否認的,目前源自於美國巨型科技公司(如Google、Microsoft、Facebook或Apple等)所開發的AI產品,必然先入為主的使用以西方白人文化為中心的價值觀來訓練AI[23],而這樣的產品將來在東方文化、伊斯蘭文化或其他民族文化中必然會因為訓練資料有限,或是訓練的標準不同,而產生需要再被客製化(customized)或地域化(localized)的結果[24]。倘若放任AI由一般人來訓練,一定學習到更多人類錯誤的偏見或仇恨語言。
3. AI如鏡子只會更放大人類的缺點與罪性:從以上可知,可見這個AI要學習的「理想模範人類」其實是多元化的存在,並非想像中的單一性。因此後來有更多類似ChatGPT的AI機器人出現時,必然會有價值觀之爭,而且更為放大了我們人類本身的缺點或差異性(即使當時能夠完美的模擬人類,也無法免除這樣的問題)。這也顯示從基督信仰的救贖論來看,AI恐怕永遠無法真正能成為可靠產品,因為所創造的人類與想要模擬的對象本身就是極不完美且帶有偏見的,因此仍然需要不斷的批判與調整[25]。但是回顧歷史,人類過往所有的科技發明,在脫離實驗室階段進入實用時,都會為了爭取經費而強調其對人類生活的改善或好處,刻意或無意間忽略可能的缺點。當這類科技服務已經深入人類生活而出現許多非之前所能預想的負面影響時(例如手機),人類就會開始自行修改其目的或方向,為相關的技術延續生命或創造新的目的。這個情形未來也肯定會發生在AI身上,只是所反映出的不是AI的問題,而是人類的罪性,並且更為放大到無法忽視。
因此從基督教的救贖論,我們發現一個看似矛盾的發展方式:一方面我們只會有更多這種類型的AI機器人出現,所以仍需要對開發者或使用者持續的追問,使之清楚回答使用目的與可能的影響,並以其應用的結果是否符合人類價值來評估是否值得支持。但是同時間我們也無法完全相信人類自己,因而對人性根本的歸宿與終極盼望還是無法有真正的答案可以給AI作參考。因此筆者認為,ChatGPT這類對話機器人將會如同一面清晰的鏡子般反映出甚至擴大人類自己的缺點,雖然總可以事後補救但仍永遠不足,因而促使更多人更深的反省看見自己的盲目虛空。或許這也是從救贖論觀點來看,AI對人類自身最有正面影響的部分吧。
五、從啟示論看ChatGPT:可承載上帝的道而帶來牧養新挑戰
1. 語言的共通性使之承載上帝的道:前文有提到,ChatGPT與之前的AI相比,最重要的特色還是因為它比以前所有的AI模型更有效的掌握自然語言(文字)在表達方式與其相關內容的平衡,因此比過往的模型更好地往通用型AI發展。而語言文字在人類文化中有個非常重要的特色,在於都是由有限的基本單位(如音節、文字或字母)所組成,只需若干原則性的連接方式(也就所謂的文法),就可以類似積木一般疊加起來成各種豐富的形狀,幾乎可以表達人類思想範圍內的各種事物或感受,是最接近人類大腦思想的表徵(representation)方式。許許多多的動物都有比人類更好的視覺功能或運動功能,但只有人類能真正地掌握語言[26]。相較起來,2016年AlphaGo戰勝人類圍棋冠軍雖然也是件歷史大事,畢竟僅限於圍棋這個特定範圍,無法直接轉譯成其他功能。所以我們可以簡單的說,掌握了語言工具就掌握了價值取捨的方式,也自然創造跨領域的應用範圍。筆者認為這個語言的共通性才是ChatGPT能產生如此重要影響的關鍵。
有趣的是,這類「語言文字」的表達,在新約聖經中最為人所知的就是被翻譯為「道」的logos,也就是話語的意思。在希臘哲學中這個字也是描述支配世界萬物的規律性或原理,而在基督教神學中更認為道的本體就是基督,萬物是上帝藉著道所造(約1:1-3)。由此從基督教啟示論的角度來看,我們就更容易理解為何ChatGPT這類利用模擬人類語言的AI,比起模擬視覺圖像或其他人類行為的AI模型更應該令基督徒覺得警醒:因為語言文字不只是可以承載傳遞人類多樣的訊息或思想,也可以被用來承載上帝的智慧與啟示(聖經即是以人類語言寫出的)。從這一點,我們就應該從信仰角度對ChatGPT這類對話機器人投以更重要的神學關注。(按改革宗的神學,上帝的啟示可以區分為普遍啟示與特殊啟示。本文所提及與ChatGPT這類語言模型型所產生的文字並不屬於彰顯上帝存在全能的普遍啟示,亦非等於聖經文字的那種特殊啟示,而是假設可以類比為聖靈所光照感動信徒,使之靈命有所成長的屬靈文字。)
2. ChatGPT可以在信仰脈絡下被更善加利用:但是讀者到這裡可能會有的質疑是,前文不是已經說明ChatGPT這類的AI對話機器人是以機率計算的方式來模擬人類的文字語言,其實並沒有真實的意識或人性在背後,也可能充滿錯誤或偏見嗎? 那這樣無法排除隨機或錯誤的文字組合,如何可能承載上帝永恆不變的真道呢?對此問題,不妨讓我們先問問ChatGPT吧,我得到的回答如下:
不知道讀者看到這個回答有何感受,或許也可以自行去問問看。但是這看起來謙遜中立的文字的確展現了ChatGPT回答相關問題時的特色。筆者曾經撰文表示[27],就一般性的語言文字理解的五個層次:字詞(word)、信息(information)、意見(opinion)、知識(knowledge)與洞見(Insight)來說明,ChatGPT的文字生成結果只能算是屬於「意見」這個層次,有種邏輯架構讓人覺得彷彿值得參考,但是只有在某些特定的範圍中可以與外在世界的事實產生對應,確認可靠而形成「知識」。但是這個與外在世界的事實如何對應,呼應的程度或標準是如何,其實與使用者個人的解讀有關。因此,即便是AI機器人是藉由複雜的演算法模擬而產生的文字,只要在使用者本身也在適當的信心與脈絡之下理解,也可能被聖靈所使用來承載上帝的真道,成為我們的幫助。
此處筆者再多些補充說明以上的觀點:上帝固然是透過聖靈感動先知與使徒,以人手所寫的文字記錄下目前我們所知道的聖經原文。但是所有對聖經詮釋學有一定了解的人都知道,要理解一段聖經經文的意思不可能不回到該段經文原始的場域,先以其相關的背景作理解,再從中提取精義而適當的應用於現代環境,也同時可以從現代的環境對經文的意思作不同層次的延伸與解讀。這本是一個經文詮釋的循環[28],讓基督徒於古代經文和當代現實之間保持彈性距離,創造信仰的傳承與發展。甚至連我們目前所讀的中文聖經也都是因此而翻譯過來的,不適合在去除相關的文化脈絡下來作靈意或私意解經[29]。
目前我們所討論的AI對話機器人就是將這些有紀錄的相關文字輸入資料庫中作為訓練材料,讓機器學習字詞間常見的關係來回應使用者的提問。因此它所作的回應,假設以經文解釋為例,基本上也就是許多解經學者整體的統計結果[30],雖然只屬於「意見」層次,但往往也可能有相當的機會帶有正確的知識,因而被上帝所使用來成為信徒造就的工具之一。類似的情形也可以應用在例如禱告文,許多內容可能都是以前在信仰書籍中出現過的,只是重新組合而已,很難說因此就不能被上帝使用,引導使用者更接近祂。因此,筆者認為我們整個教會應該鼓勵更多牧者善用這樣的工具來協助牧養,也讓信徒有更多以個人化的方式接觸真道的機會。以下筆者就詢問ChatGPT一個常見的聖經問題以及請它產生一篇祈禱文來作例子,請讀者自行判斷,也鼓勵更多的嘗試。
3. 使用ChatGPT會挑戰牧養的權柄與信徒的習慣:但是如同筆者前面提到的,當AI機器人使用於信仰或牧養領域,問題在於它的無所不答也可能把明明沒有資料的空白用其他關聯性較次要的文字抓過來填補,造成「一本正經地胡言亂語」。而這對於不容易直接檢驗的信仰議題往往就容易給初信者或基本知識了解過少的人帶來了誤導。用前面提到救贖論的角度,解決這個問題的方式除了需要有在聖經或神學研究上更有經驗的牧者適時澄清外,似乎只得靠基督教會用自己篩選過的資料來訓練給信徒的AI對話機器人。
但一連串新問題馬上會接連出現(即使資料來源都是正統神學背景,訓練的大量經費與技術也有辦法負擔):這樣的AI對話機器人是否可能比一般的牧者懂得更多更正確了呢?所寫的禱告文或靈修筆記更能造就信徒信徒遇到的信仰問題是否就應該更多相信或接受AI的「權柄」,反而對牧師不一樣的回答帶有質疑了呢?
當然,熟悉牧養現場的讀者馬上可以提出,其真正的牧養並不只是文字上的問題解答或講道,當然還包括各種關懷、陪伴、勸勉、聆聽等等幾乎都是目前AI無法作好的事情[31]。但是基督教會畢竟是需要順服上帝的啟示與真理而行,並不是一個經營人際關係的俱樂部,所以筆者以為未來牧養的挑戰並不只是與AI搭配互補,而是應該如何思考協助牧者善用這樣的AI技術,能將對會眾的牧養帶到更高的層次,而這部分對於目前華人教會的環境而言的確不是容易作到的。
同時,這也對基督徒的信仰生命帶來新的挑戰,因為如果一些困難的經文或章節大意都能靠著ChatGPT這類AI機器人簡要的回答與了解,那基督徒自己是否需要思考反芻經文或信仰議題了呢?事實上,這類個人化的「屬靈文字」未來會隨手可得(如同對信徒個人的先知預言),甚至可以說是因此浮濫而讓信仰價值被稀釋。若信徒還是抱著不求甚解而毫無追求真理並實踐的心態,反而會讓自己的信仰被AI所模擬的屬靈而架空?屆時可能連讀經禱告都覺得多餘(因為很快就可以得到更好的資料與禱告範本),也不再成為敬虔信仰的行為標準(其實本來就不應只看行為)。如何能花時間將信仰「內化落地」成為真實的活潑生命,在未來更多AI虛擬的信仰資源的出現後會是對基督徒屬靈生命的另一種挑戰。
六、直面AI時代的到來與具體建議彙整
面對已經來臨的AI時代,特別是ChatGPT這類接近通用型AI的發展,已經沒有人再懷疑未來社會是否會因此有巨大的改變,唯一的問題只是到底該如何面對[32]。事實上,目前連寫AI程式的資工人都開始擔心自己的工作機會因此而減少[33],畢竟因為ChatGTP這類生成式AI的功能已經相當齊全優秀,介面又如此方便,已經開始讓一些企業停止增聘相關的技術人員[34]。這樣的情形是以往的工業革命所沒有過的,目前世界各國也很難有好的範示可以有效面對。因此我們也必須承認目前對於AI在信仰團體或福音未來發展上所產生的影響,了解還十分有限,很容易就過分低估或誇大其影響。
由於文章篇幅的限制,此處筆者不再重複許多人已經有提過AI時代所可能帶給我們目前社會的影響,有興趣的讀者可以很容易從網路上找到相關資訊[35]。以下僅綜合前面從聖經的創造、救贖與啟示的角度來對華人基督教會或基督徒提供筆者個人目前認為的幾個方向性建議:
1. 從創造論的角度,我們應該肯定AI相關的發展也是上帝創造人類時所賦予的上帝形象展現之一。因此可以鼓勵更多相關領域的專業基督徒投入研究或發展,也在教會生活中適當應用,不必妖魔化或給予不必要的質疑。
2. 從創造論的角度,基督教會應該對這些AI模型開發的目的與影響給予更多的關注,鼓勵督促開發者用於協助人類管理其它被造物,幫助人脫離束縛,而不是用來限制或約束人(或至少不能對人類全體有所傷害)。
3. 從救贖論的角度,我們需要提醒基督徒與社會大眾對AI幾乎不可避免的錯誤儘量謀求改善,並準備好相關的配套措施或法律制度。特別是如ChatGPT這類接近通用型的AI,需要有更完善的管理或審核機制。
4. 從救贖論的角度,我們知道AI因為資料蒐集與人工訓練的緣故,必然會有價值觀的選擇,無法逃避。基督教會可以從信仰的高度協助與不同價值觀者有積極的對話,尋求妥協與配套,減少因為ChatGPT這類AI對話機器人而擴大人類內部原有的差異或衝突。
5. 從啟示論的角度,教會應鼓勵基督徒更好的建造信仰的基礎知識,使之可以善用ChatGPT所產生的文字來造就人,增廣相關見識或深化既有基礎,而非被其可能的錯誤而誤導。
6. 從啟示論的角度,教會的牧養與神學院的信仰教育應加強預備,協助傳道人能讓上帝的道在AI模擬信息充斥的時代仍能有效的對基督徒與這個世代發聲。要作到這個,除了對會眾的需求提供引導「意見」,以及基本的「知識」基礎,更需要能提供ChatGPT這類對話機器人無法產生的屬靈「洞見」,讓生命得到真實的屬靈餵養(此處的意見、知識與洞見分別是人類語言文字溝通的五個層次中的後三個,詳情可見本文的附錄)。倘若講台上仍像若干教會只是重複許多「術語」就以為敬虔屬靈(其實只是「字詞」或「訊息」的層次,見附錄),那就真的很難造就信徒的靈魂,也更容易被模仿取代,因為AI就是用常見的文字來作訓練的。
最後,筆者認為未來AI必然會以更多的應用形式滲入我們的生活,人們都會被這些虛擬環境所圍繞,更難完整的認識自己。因此未來對於人生的意義或價值有迷茫的人必定更多(特別是年輕世代),形成更大的福音需求,但是這不代表他們必然會來尋求福音。畢竟在未來AI模擬充斥的時代,人們來到教會都需要找到耶穌對其個人獨特的呼召,而非彷彿用同個工廠的標準流程所製造出的罐頭信徒。或許唯有這樣,我們才能算是實踐自己的「道成肉身」,成為耶穌所認識但無法為AI演算法所替代的那一位。
(完)
(關於此篇文章讀者的提問與回答,請見:關於「ChatGPT與基督信仰」常見的問題與回應)
一般使用語言文字表達的時候,我們可以先區分以下幾個不同層次的概念,這些組成我們對於現有知識結構的理解[37]:字詞(word)、信息(information)、意見(opinion)、知識(knowledge)與洞見(Insight),並舉一些基督信仰的例子來說明。而筆者認為目前ChatGPT所產生的文字大致上是屬於「意見」的範圍,有部分可以稱為「知識」,但幾乎未到「洞見」的層次。
1. 字詞:本身其實只是一種符號,通常是用來表達另一些概念對象。從現代語言學的角度來看,某個特定的符號和其所特定所指的概念對象之間的聯繫不是絕對的,而是有約定俗成的彈性。唯一有關係的是使用這個字詞的人是否是在相關的文化環境中使用,以至於可以與其他人正確的溝通,不會誤會彼此的意思。因此,如果認為某些基督教術語(如哈利路亞)之類的就比較屬靈,其實那只是在一個特定的脈絡中才對聽得懂的人有意義。從這個角度來看,一個基督徒說「哈利路亞」如果只是一個習慣性的口頭禪,並不見得會比ChatGPT在合適的脈絡下使用這個辭彙更為屬靈或被上帝所看重。
2. 信息:由於只有單字詞是無法正確代表語言,還必須放在正確的前後文(context)環境中,才有可能發揮效果,描述某些外在事物或內心感受或理念。而前述的大型語言模型也就是根據這個前後文來計算出的複雜機率關係:利用前面出現的幾十個字詞推算後面將會出現的字詞,有助於形成一個通順的文句,例如「這件事情可以禱告交託給上帝」。這樣的語言表達也可以說在某個程度上描寫出一段不同事物 (事情、禱告、交託、上帝) 彼此之間的關係,開始指涉某些事件發生的過程或內涵。這樣的訊息是帶有描述成分,也當然就可能成為可以評價正確性或合適性與否的內容。由於大型語言資料庫都是人類所使用的文字,所以應該幾乎不會出現類似「給事情禱告可以交託這件上帝」這種看起來符合文法但語意不通的句子。
3. 意見:但是以上的信息本身並不見得能影響對話的對象,因為聽的人可能只是覺得他在自言自語,畢竟類似的信息本身就充滿在我們四周。但是我們通常會選擇考慮聽從那些有根據、有專業或至少經驗上看來可靠的意見文字來做判斷。那樣的意見當然不會只是一個規範性的命令,通常也會包括相關的理由與說明,形塑出一個邏輯架構,讓人覺得可以考慮信任。舉例來說,「這件事情可能讓妳特別煩躁,但短時間內顯然也無法有效解決,也許可以禱告交託給上帝,看後來會有甚麼樣的預備,再決定是否繼續還是調整。」這樣一段話就是一個意見,提供一些脈絡與邏輯,帶有價值評斷或規範性的期待,就會使聽者更願意考慮。筆者認為目前的AI對話機器人所提供的文字訊息主要是屬於這樣的「意見」層次,以至於會讓我們覺得好像有那麼針對我們的提問而有值得參考(或至少需要決定如何否決)的可能性。
從心理層面來說,對於這樣「人模人樣」的文字,我們人類就容易在心理上投射出應該可以信任考慮其意見的感覺,畢竟這樣會幫我們節省一些做決策的時間。但是反過來說,如果使用者本身的分辨能力不足,以為所得到的回答是正確的(也無法質疑),那就可能被誤導而不自知。例如前述ChatGPT的回答,說自己沒有價值觀,其實是不正確的。因為它的價值觀已經是透過人工調教並重新訓練而成,如前述的「人工回饋的強化式學習」。但是沒有這些基礎的人就會真的以為它是完全價值中立的。
4. 知識:雖然意見的文字本身可能是通順流暢且合理的,但是不一定能形成有效的知識。在這裡筆者並不是要陷入哲學上對於「知識論」(Epistemology)的探討論證[38],只是先以一般人基本的概念來說,真正的知識大致上需要一種與外在世界相符(有經驗主義的基礎)且有內在邏輯理由(有理性主義的架構)的整合性概念。這部分就會牽涉到實際上這些意見是否真的可行的問題,或是如果我不照著做,是否有所損失?而非只是「看起來人模人樣」的感覺。以此而論,ChatGPT有部分的功能,例如寫程式、找程式的錯誤、找尋過往的資料、整理現存的資訊等等功能的確達得到這類層次而成為可以信賴的知識。雖然錯誤仍然會有,但因為是包在一個論述架構中,所以除非對這方面相當熟悉的使用者才可能分辨。但是反過來說,如果這樣的「知識」其實錯誤的引導到外界的事件,就可能帶來嚴重的影響,例如醫學相關的應用[39]。
因此,我們發現容易混淆的原因就在於,由於信仰的問題很多終極的答案在於對上帝的理解或者對聖經經文的詮釋,這些部分往往本身難以有絕對客觀的標準,很難排除某些論述的有效性,因而使用者在心理層面受到類似錨定效應(Anchoring Effect)的影響[40]。以至於AI機器人的回覆文字雖然只是意見的層次,就有可能像是可參考的知識內容或因此產生了權威感。這是為何ChatGPT來作法律或商管領域的申論題往往可以表現得很好,甚至可能要顛覆過往人文社會領域傳統特別重視文字論述的學習方式[41],但是它作數學或理工的問題往往不容易及格。
5. 洞見:筆者這裡的洞見是指,這些文字組成不僅僅帶有知識的內容可以被檢驗,也提出一些特殊(或以前很少被聽到或重視的)觀點,而這些觀點是帶有可預測性或至少有更完整可延伸的解釋能力,能夠讓人相信這是未來可以被驗證或至少相當有順服力的理解過往沒有被充分了解過的問題。這部分是目前AI機器人幾乎做不到的,但這個表達當然也要更具體的看是哪一種問題或是哪些回覆方式才能確認。但是就筆者印象所及,網路上目前為止所提出的ChatGPT實測結果,都只是驚嘆它整理出一些我們本來大約就知道的內容,而沒有精準高明到認為超過人類一般的能力以外。因此筆者也以此勸勉未來的牧者,在ChatGPT這類AI對話機器人可以產生許多意見層次的文字時,也要提升講道信息的內涵與深度,才能讓信徒得到真正的造就與成長。
其實如果我們了解AI目前的訓練方式,就會知道這一點對於目前的AI對話機器人很可能是先天的限制,永遠都無法像AlphaGo那樣超越人類。因為AI只是從訓練的資料中模擬可能的結果,所以如果這個資料來源是自然科學中可以明確知道結果(如天氣預測)或可以用數學所定義的(例如圍棋比賽)目標,那AI的應用的確就可能超越人類而更接近這個客觀目標。但是如果這些訓練資料是來自於人類社會,標準是由人類自行所定義的(否則就是不像人類),那AI最多只能模擬人類的行為,準確性也就不可能超越人類多數的標準,只能說可以加快速度處理更大量的資料而節省時間。
[1] ChatGPT的網址:https://chat.openai.com/ [3] 筆者撰寫這篇文章的時候,已經有Google的Bard與Meta的Llama推出類似功能的AI對話機器人,雖有其特色,但似乎都並未被認為超過ChatGPT的能力。參考以下兩篇報導:〈聊天機器人Bard回答走鐘 Google母公司市值蒸發千億美元〉,上報 (2/9/2023)。引用網址: https://www.upmedia.mg/news_info.php?Type=3&SerialNo=165552。〈AI 叫陣 GPT!Meta 公開 LLaMA 大型語言模型〉,Inside(02/26/2023)。引用網址: https://www.inside.com.tw/article/30859-llama-meta [4] 本文內容有一部份改寫於筆者所著,〈當Google遇上ChatGPT──從語言理解的心理面向看AI對話機器人的影響〉,風傳媒(2/11/2023)。引用網址:https://www.storm.mg/article/4725780?mode=whole。後來增補的版本亦可直接見於筆者的部落格原文:https://blog.udn.com/dawweiwang/178350327。最後AI對信仰的影響,亦主要來自於筆者過去幾年對AI與信仰的相關主題演講,例如〈人工智能(智慧)的發展與基督教的未來〉(11/07/2017)。引用網址:https://blog.udn.com/dawweiwang/108971169。 [5] 這主題有興趣做一些初淺而非技術面深入了解的讀者,可以參考筆者所曾經拍攝的「人文社會AI導論課程」,屬於國科會人文社會科學研究中心所支持拍攝。所有的影片與投影片網址亦可見於筆者的部落格連結:https://blog.udn.com/dawweiwang/168003413 [6] 例如可參考以下新聞:〈公開指AI聊天機器人有「人格意識」!Google工程師慘遭開除〉,數位時代(7/25/2022)。引用網址:https://www.bnext.com.tw/article/70804/google-fires-software-engineer-for-lamda? [7] 移情作用(transference)是精神分析學大師佛洛依德(Sigmund Freud)所提出,描述人類常將自己對某人的情感無意識地投射到他人身上的情形。移情作用並非都是不好的,是有助於生活的情趣或情感的調適(如對寵物的喜悅),但可能不見得是對方真實的狀態。可以參考以下簡要的說明。https://en.wikipedia.org/wiki/Transference [8] 關於比較搜尋引擎和語言模型的應用,以及Google與Microsoft之間可能的競爭,筆者覺得以下這篇文章寫得蠻好的,也可以因此更多了解這些技術的特性與侷限,提供有興趣的讀者參考。〈微軟vs Google:語言模型會不會壓倒搜尋引擎?〉,36氪(2/1/2023) 。引用網址:https://tw.stock.yahoo.com/news/%E5%BE%AE%E8%BB%9Fvsgoogle%EF%BC%9A%E8%AA%9E%E8%A8%80%E6%A8%A1%E5%9E%8B%E6%9C%83%E4%B8%8D%E6%9C%83%E5%A3%93%E5%80%92%E6%90%9C%E5%B0%8B%E5%BC%95%E6%93%8E%EF%BC%9F-055720192.html [9] 事實上,微軟已經將ChatGPT與搜尋引擎Bing結合起來,稱作New Being,就可以聯網作即時訓練並將這些搜尋到的資料作通順的整理表達,未來的確可能挑戰目前Google網路搜尋的霸主地位,但也被發現因為來不及作人工除錯訓練,也出現許多AI幻覺或激烈言詞,不得不限制每次搜尋的次數。可參考以下新聞報導:〈致命傷出現?微軟承認新版Bing缺陷:聊天太久AI會生幻覺〉,自由時報(2/17/2023)。引用網址:https://3c.ltn.com.tw/news/52236 [10] 〈OpenAI接受 MIT Technology Review 採訪:我們壓根沒想到 ChatGPT 會爆紅〉,Inside (3/6/2023)。引用網址:https://www.inside.com.tw/article/30914-inside-story-oral-history-how-chatgpt-built-openai。 [11] 關於AI如何處理人類語言的工作,統稱為「自然語言處理」(Natural Language Processing),可以說是當前最富挑戰性也最有未來性的AI應用。對這主題有興趣可以參考筆者所曾經拍攝的一段影片,「自然語言處理簡介」。影片參考網誌:https://www.youtube.com/playlist?list=PL_qamH512zu6NbUEDShUFyHiE7qHUGJiNmty2e-3pe84 [12] 關於人工配合訓練ChatGPT的部分,可以參考以下稍微詳細一些的說明:〈ChatGPT 為何能像人類對談?台大資工陳縕儂教授揭 AI 模型背後的訓練原理〉,Inside (12/26/2022)。引用網址:https://www.inside.com.tw/article/30190-chatgpt-professor-Vivian-Chen-interview [13] 李建興,〈OpenAI改進GPT-3使其更能聽懂人類指示,並減少輸出有毒內容〉,iThome (1/28/2022)。引用網址:https://www.ithome.com.tw/news/149140 [14] 事實上,網路上已經有許多人提供所謂的「ChatGPT指令大全」之類的資訊,方便使用者用特定的提問方式,來讓AI做出更符合其要求與期待的工作。例如讀者可以參考以下網頁:ChatGPT 指令大全https://www.explainthis.io/zh-hant/chatgpt [15] ChatGPT可以依據使用者的指令作角色扮演,例如此篇提到的「伴侶模式」,〈全世界第一篇!開箱ChatGPT測試中的「虛擬情人」隱藏功能〉,Vocus (3/8/2023)。引用網址:https://vocus.cc/article/64008eb6fd89780001e5d7c8 [16]〈ChatGPT多聰明?實測能通過美名校商學院、法學院考試〉,經濟日報 (1/29/2023)。引用網址:https://udn.com/news/story/6811/6935748 [17] 舉例來說,筆者問ChatGPT如何幫收音機介紹女友,它也就一本正經地根據收音機的性質列出一些條件,例如要喜愛音樂這樣才能欣賞收音機的優點。這代表它並無法真正的掌握到人類語言表達中許多未明言的常識,這也就是所有這類AI先天不足之處。 [18] 可參考美國神學家薛福(Francis A. Schaeffer)在他的著作《人類的上帝形象》(The God Who Is There)。其中他強調了人類的創造能力是上帝形像的一個重要方面,因為上帝是創造者,而人類通過創造來展現自己的形像。 [19] 有人可能會引用物理中的量子力學或測不準原理認為世界的本質是隨機而不可確定的。但是筆者要提醒的是,我們仍能用量子力學的方程式來明確描述計算這些機率。這顯示物理學家並非相信世界本質上是混沌隨機,否則連建立物理定律來描述的企圖都不必有。 [22] 這也代表基督教的「救贖論」絕對不只是如何定罪或得就這類過於簡化的標語,還更包括如何在這罪惡滿盈的世界中,帶著仍會犯罪與他人幾乎無異的軟弱來面向上帝,與世界對話而仰望新天新地的到來。這個等候過程也是一個信心成長的歷程,也就是基督徒所謂的「成聖」。 [23] Samantha Murphy Kelly, “This AI chatbot is dominating social media with its frighteningly good essays”, CNN Business (11/8/2022)。引用網址:https://edition.cnn.com/2022/12/05/tech/chatgpt-trnd/index.html [24] 這顯然已經發生於中國這樣對資訊管控更嚴密的國家,如以下報導:〈ChatGPT在中國被禁用仍爆紅 各家企業推替代工具〉,中央社(2/13/2023)。引用網址:https://www.cna.com.tw/news/ait/202302100339.aspx。 [25] 最近OpenAI也發表了類似獨立宣言般的正式聲明,強調人類社會應該更積極地用對話的方式來面對處理通用型AI的來到,確保每個人都能從這樣的發展中獲得益處。Sam Altman, “Planning for AGI and beyond”, OpenAI (2/24/2023)。引用網址:https://openai.com/blog/planning-for-agi-and-beyond。 [26] 雖然我們都知道許多動物可以透過聲音、氣味或運動方式來傳達簡單的訊息,但那些都完全沒有辦法重新組成本來所指涉的物體/事件以外的意義,也就是沒有多元使用上的彈性,與人類的語言表達能力有本質上的鉅大差別。 [27] 〈當Google遇上ChatGPT──從語言理解的心理面向看AI對話機器人的影響〉,風傳媒(2/11/2023)。引用網址:https://www.storm.mg/article/4725780?mode=whole。後來增補的版本亦可直接見於筆者的部落格原文:https://blog.udn.com/dawweiwang/178350327。 [28] 聖經詮釋學本身是很廣闊的學問,難以用三言兩語說明。筆者個人很喜歡范浩沙 (Kevin J. Vanhoozer)的《神學詮釋學》(校園),推薦讀者可以參考。筆者為校園書房寫的推薦文可見於以下網址:https://blog.udn.com/dawweiwang/109548865 [29] 筆者此處的看法是屬於基督教幾個主要解經派別中,於宗教改革後所發展以歷史文化研究為基礎的「字義派」觀點。相較於其他教會歷史中較保守的如中世紀天主教的「寓意派」與敬虔主義的「靈修派」、或19世紀以來較為開放的「新正統派」與「自由派」,應該是屬於較為中立且與華人福音派有最大交集的範圍。這些解經派別的簡介可見經典的解經書籍,如蘭姆 (Bernard Ramm)的《基督教釋經學》,或其他各種較新的當代釋經學書籍。 [30] 根據ChatGPT自己所提供的資料,其關於基督教信仰的資料來源包括各種常見的聖經版本、基督教歷史資料、教義與信仰文集、基督教文化與藝術、基督教生活方式與實踐相關的文字。資料的形式來源包括如書籍、新聞、網站、雜誌、學術論文和其他文本,且不斷在增加中。當然,英文的資料一定是占主要的。 [31] 這部分可以參考基督教論壇報所作的專題企畫,〈ChatGPT來襲! 當耶穌遇上聊天機器人會如何?〉,基督教論壇報(2/22/2023)。引用網址:https://ct.org.tw/html/news/3-3.php?cat=80&article=1394282 [32] 以高等教育為例,美國的各大學已經開始為ChatGPT的使用展開新的規範甚至開發新的教學方式,可見新聞報導例如:〈禁了也沒用,美大學開始改變教學方式研究怎麼與ChatGPT 共存、又不用擔心學生抄襲〉,36氪(1/31/2023)。引用網址:https://www.techbang.com/posts/103356-chatgpt-is-coming-american-universities-are-beginning-to [33] 可以參考以下的報導:〈ChatGPT 平均智商約 83,但讓NLP工程師覺得工作毫無意義〉,INSIDE (12/09/2022)。引用網址:https://www.inside.com.tw/article/30042-ChatGPT-challenge-NLP-Algorithm-Engineer。〈用AI取代菜鳥設計師寫程式,也許比你預期的更快!AlphaCode已與一般程式設計師能力相當〉,T客邦(12/15/2022)。引用網址:https://www.techbang.com/posts/102423-the-next-frontier-in-artificial-intelligence-alphacode-is [34]可以參考以下的報導:〈請別相信 AI 不會取代人類工作〉,Inside (3/5/2023)。引用網址: https://www.inside.com.tw/article/30913-Do-not-believe-that-AI-wont-replace-human-jobs [35] 關於AI的發展會對我們社會帶來的影響,並從基督信仰觀點而有的回應,可以參考筆者過去幾年對AI與信仰的相關主題演講,例如〈人工智能(智慧)的發展與基督教的未來〉(11/07/2017)。引用網址:https://blog.udn.com/dawweiwang/108971169。 [36] 此部分較為詳細的說明可以參考筆者之前的文章,〈當Google遇上ChatGPT──從語言理解的心理面向看AI對話機器人的影響〉,風傳媒(2/11/2023)。引用網址:https://www.storm.mg/article/4725780?mode=whole。後來增補的版本亦可直接見於筆者的部落格原文:https://blog.udn.com/dawweiwang/178350327。 [37] 一般的認知心理學會以Miller(1973)所建議的五個層次來組成語言,分別是語音、語法、詞彙或語意、概念、信念。但在這裡筆者更著重於將最後一個信念(belief)細分為知識與洞見,代表不同強度的可信賴性,也是AI機器人比較無法呈現的部分。 [38] 知識論是西方哲學重要的一個分支,重點在於如何確認所知道的內容是真實可靠的。在17-18世紀的時候有很多重要的哲學家參與相關的討論,大抵上可分為歐陸的理性主義傳統與英倫三島的經驗主義傳統,而後由康德做了相當好的整合與推廣界定。有興趣的讀者可以從維基百科參考一些相關資料:https://zh.wikipedia.org/zh-tw/%E7%9F%A5%E8%AF%86%E8%AE%BA [39] 例如以下報導:〈或危及人類安全? AI聊天機器人編造的醫學論文摘要 科學家難辨真假〉,Bastille Post (1/23/2023)。引用網址:https://www.bastillepost.com/hongkong/article/12136400-%E6%88%96%E5%8D%B1%E5%8F%8A%E4%BA%BA%E9%A1%9E%E5%AE%89%E5%85%A8%EF%BC%9F-ai%E8%81%8A%E5%A4%A9%E6%A9%9F%E5%99%A8%E4%BA%BA%E7%B7%A8%E9%80%A0%E7%9A%84%E9%86%AB%E5%AD%B8%E8%AB%96%E6%96%87%E6%91%98 [40] 也就是說,人類在進行決策時,會過度偏重先前取得的資訊,即使這個資訊與這項決定無關。詳見維基百科的說明。引用網址:https://zh.wikipedia.org/zh-tw/%E5%AE%9A%E9%8C%A8%E6%95%88%E6%87%89。 [41] 例如以下這篇評論:〈人工智慧降臨,人文科學已死?〉,36氪(12/30/2022)。引用網址:https://www.techbang.com/posts/102780-artificial-intelligence-humanities |
|
( 時事評論|公共議題 ) |