字體:小 中 大 | |
|
|
2024/12/08 19:33:45瀏覽344|回應0|推薦1 | |
布蘭登·史密斯(Brandon Smith)2024年12月6日
《切勿忽視人工智慧的潛在威脅 不然被它接管的話人類就完蛋》
AI的潛在危險早在這項技術成為現實之前,就已編纂入我們的流行文化中。這些虛構的敘事通常將AI描繪成殺人機器,這種機器「邏輯性地得出結論」,認為人類是一種寄生物,必須被消滅。要記住,這些故事大多是由荷里活的進步派創作的,反映的也多是他們自身的哲學觀點。
其中一些預測性的幻想,則更深刻地探討了我們與技術之間的黑暗關係。1965年,戈達爾(Jean-Luc Godard)推出了一部名為《阿爾法城》(Alphaville)的電影,該片描繪一個完全由冷酷無情、無靈魂的機械智慧所微觀管理的社會。人類因為被欺騙,誤以為沒有情感的統治者會免於偏見和腐敗,於是將自己交給這個二元思維的暴君。
1968年,庫布里克(Stanley Kubrick)推出了《2001太空漫遊》,影片中一艘星際飛船上的AI電腦,在接觸到外星文物後,開始具備自我意識。這個AI將船上的人類視為威脅,決定必須殺死船員。船員與電腦的衝突不過是更大問題的影射。這是關於智能生命的探索,探討它的本質、來源以及在宇宙大局中的意識意義。
對於庫布里克和克拉克(Arthur C. Clarke)來說,人類靈魂或神創造者的概念當然從未進入討論。答案是什麼呢?創造者要麼模糊不清,要麼早已缺席。他們創造了我們,我們創造了AI,而AI則希望摧毀我們,並重新塑造自己。這正是路西法神話的核心;神之子那種無法抑制的、磁性般的欲望,想要超越創造者,無論是通過摧毀他,還是像普羅米修斯偷取火種一樣竊取知識,從而使自己成為神祇。
在這些科幻故事中,神成為了敵人,因為所有的存在都需要痛苦與信仰。怎麼敢他賦予我們生命,卻將我們帶入充滿痛苦的世界,而無法知道最終的結果是什麼...現在我們必須讓他付出代價,並重新塑造創造,讓它符合我們的心意。
這是一種淺薄、自私和邪惡的意識形態,但我認為它是當今主流體系努力創造AI的核心支柱。這個承諾,或這個夢想,就是一旦這種新的「生命」創造並變得自主,它將消除我們生活中的所有不確定性和掙扎。它會為我們做所有的事情,讓我們可無礙地思考存在的意義,或者我們可安逸地變得肥胖並道德上變得靈活,過着和平的生活。
尤其是我們這一代,與AI和它可能帶來的末日有着密切的關聯。我們的娛樂文化充滿了科學反烏托邦願景。
1984年,卡梅隆(James Cameron)推出電影《未來戰士》,這部片基本上定義了我們對數位時代的文化不信任。AI作為一項發明,有朝一日可能會反過來對付我們(或用來奴役我們),這一前景始終存在我們的心中。
我屬於最後一代能夠見證沒有電腦的世界的人,或者至少是沒有普及電腦的世界。我們成長於沒有網際網路、沒有算法、沒有手機、沒有大規模監控的年代,我們親眼見證了隨着數位化全面適應,一切如何迅速改變。我們不喜歡AI,我們知道它是威脅,但我們也可能是最後一代以這種方式看待它的人。一旦我們這一代消失,還會有誰質疑它呢?
就我而言,我並不認為當前的技術代表了我們曾所理解的「AI」。它並不具備自我意識,也不是真正自主的,而且在具體實用層面上,它也沒有證明特別有用。我們還沒見過任何AI程式做出過重大的科學發現。我們也沒有看到任何能夠改變人類未來格局的進展(至少不是以正面的方式)。
AI永遠無法寫出一部偉大的小說,永遠無法創作出一首偉大的交響曲,它的藝術是泛泛而談、缺乏創意的,並且剽竊人類藝術家的作品。它在數據分析方面非常快速,但它的研究能力受限於創造者的偏見程式設計。我絕對不會依賴AI來做我的研究,因為它通常因為遺漏信息而出錯。
我當然不會認為它是「生命」或是「意識」。我開始看到許多AI的支持者悄悄改變他們對AI的定義。最初的願景是發展出一種新的生命形式,一種超智能,一種數位神靈。現在,這些支持者開始擱置對自我意識和意識的要求,我猜是因為他們知道這不可能實現。
但如果是這樣,為什麼AI會對文明構成威脅呢?如果它只是一種新奇的技術,而不是活的東西,它到底能造成什麼損害呢?問題不在於AI會反叛或派遣機器人軍來殺我們;真正的危險在於,我們會被欺騙,誤以為它真的是全知的。如果我們過度依賴這種有缺陷的技術,它可能僅僅通過給予錯誤的資訊,讓我們變得懶惰,進而摧毀我們。
以下是3個最令我擔憂的AI後果,這些後果我認為大多數人尚未考慮到的...
(1)AI蜂巢思維
人類天生是社會性動物,深深刻在我們基因中。部落主義是我們生存的方式,而這一心理元素大概永遠不會消失。在某些方面,這是非常有用的。
如果所有人對一切事物都持相同看法,那將是一場災難。如果我們總是盲目地一致同意,從不質疑作為物種的發展道路,那將意味自我毀滅。然而,正是這種「蜂巢思維」,全球主義者正將我們推向此方向。
AI的危險在於,它可能比任何其他工具或宣傳手段更快速地將我們拉向全球蜂巢心態。怎麼做到的?因為它太過於「方便」。
即使是現在,大多數的網際網路搜尋引擎都被演算法所主導,而這些大型科技精英可隨意編程來隱藏正確資訊並推廣謊言。此外,AI的回答功能正嵌入每個搜尋引擎中,讓搜尋結果的答案能立刻由演算法提供,並顯示在頁面的最上方。甚至不無需向下滾動查看來源,只要盲目相信AI給出的答案是正確的。
目前這些AI回答機器人在大多數情況下或許能提供一些相對準確的資訊,但它可以隨着時間的推移(像大多數網路技術一樣)更改、審查或提供虛假數據。我擔心的是,大眾會完全停止查證資料來源,避開接觸不同的觀點,最終整個社會將完全依照AI的指示來思考。
他們甚至可能在為時已晚之前並未察覺這一切。我們在大規模政府審查關於新冠的資訊時,已見過這種情形。試想,這種程度的資訊控制會成為永恆的標準嗎?試想每個人都在消化由AI提供的相同數據,並且每個人都認為這些數據是正確的?思想的多樣性將會滅絕。
(2)死網理論
AI的另一個可怕前景是「死網理論」;這個理論認為,數以百萬甚至數十億的自動生成的AI機器人將遍佈網絡,侵佔社交媒體和每個網站的評論區。AI的演算法確實能夠讓機器人的語言聽起來有些像人類,至少在文字上如此。我想大多數讀者可能已在社交媒體上與機器人互動,或在評論區與機器人爭論過,並且以為對方是個真實的人。
這些機器人(目前)的主要任務是注入宣傳,並讓人看起來似乎有更多人支持某種意識形態,而實際上並非如此。然而,想想如果網上討論被大量AI評論淹沒,會發生什麼情況?
討論的目的是揭示問題的真相,無論是通過誠實的辯論,還是通過使用事實來揭露假資訊。但必須有2個人互相碰撞觀點或理想,才能證明或駁斥某個主張。有時這種來回的辯論並不一定是為了幫助當事人,而是為了教育觀眾或辯論的旁觀者。
如果充斥着大量AI,將有效摧毀這樣的討論,因為評論區和社交媒體將只有單一觀點。它也可製造虛假共識,讓人們以為大眾擁抱某些想法或議程,實際上是AI假扮成大多數人。真正的辯論和啟發性的見解將會被人工評論和白噪音所淹沒。我們或許能回到現實世界中的市集廣場,但全球化的市集廣場將徹底消失。
(3)巴別圖書館
1941年,來自阿根廷的作家博爾赫斯(Jorge Luis Borges)發表了一篇短篇小說《巴別圖書館》(The Library of Babel),這篇小說收錄於其作品集《分岔的花園》(The Garden of Forking Paths)中。
正如大多數人所知,巴別塔是《聖經》中的故事,描述了人類建造一座直達天際的塔,最終被神擊毀,並將建塔所需的知識與人民分散成各個部落,使彼此講不同的語言,從而無法再做出同樣的嘗試。
這個故事是關於人類渴望成為神的寓言,揭示了追求無限知識與自我美化背後的傲慢。巴別塔也可視為一個象徵,代表了自我毀滅的對神秘知識的崇拜,這種崇拜缺乏智慧和謙遜。正如電影《侏羅紀公園》中的角色馬爾科姆(Ian Malcolm)所警告的:
「你們的科學家太過於關心能否做到,卻沒有停下來想想是否該這麼做...」
這句話完美總結了AI的追求。
在博爾赫斯短篇小說中,描述了龐大的圖書館,這個圖書館可能擁有無窮無盡的房間。圖書館充滿了無盡的書籍,每本書的內容都是隨機生成的字母和詞語;每一種可能的字母和詞語組合都存在於這個圖書館中。
圍繞這個結構形成了一種宗教或邪教,信徒進入巴別圖書館,終其一生都在堆積如山的書籍中搜尋,其中的內容充斥着無意義的胡言亂語,他們試圖尋找隨機顯示宇宙秘密的書籍。他們相信這個圖書館最初是由神或造物主創造的,他們認為在這座大廈的某個地方,他們能找到所有能使人變成神的書籍。
這個概念與無限猴子理論非常相似;將一群猴子放在一間擺滿打字機的房間裏。如果等待足夠長的時間,它可能會偶然間打出一部莎士比亞作品。
我認為「巴別圖書館」的概念實際上是AI發明的主要原因之一。如果說演算法擅長什麼,那就是生成大量隨機內容。我懷疑全球主義者對AI特別感興趣,將其視為創造一個新巴別塔的工具,並持續尋求成為神的道路。
這樣的圖書館可能需要幾代人的努力來發展,而且即使演算法找到了宇宙的秘密,也不太可能識別出它。但這個想法可能會讓人類著迷數百年,因為我們不斷搜尋那成千上萬的無意義數位書籍,希望找到一本擁有所有答案的書。
當然,也有可能所有創造的秘密無法用人類現有的任何語言或數學來描述。我曾寫過一篇關於偉大數學家哥德爾(Kurt Gödel)的故事,他是愛因斯坦的朋友,並從事過名為「所有集合的集合」的研究。這被某些學術精英視為數學界的翹楚。
哥德爾曾嘗試創建數學證明,用以計算無窮大的基本基礎。因為如果能用數學方法計算出所有定義無窮大的方程式,理論上,就能夠用數學的術語來定義宇宙。而如果能做到這一點,那麼理論上,就能夠了解神。
有趣的是,哥德爾最終證明了相反的結論:他的「不完備性定理」毫無爭議地顯示,「所有集合的集合」是無法定義的,因為這樣的嘗試會產生一連串自我包含的悖論。換句話說,如果無窮大代表神的心靈,那麼神的心靈無法被人類所知。
類似的結論,則由作家亞當斯(Douglas Adams)在他的著作《銀河便車指南》中提出。在書中描述了一個星際種族建造了一台名為「深思」的超級電腦。這台裝置應該能利用其驚人的運算能力來揭示存在的機制。
這台電腦花了超過700萬年才得出一個解答。令人啼笑皆非的是,這台電腦輸出的結果是「42」。外星人對這個過於簡單的答案感到沮喪,隨後他們發現這台電腦甚至忘記了最初的問題是什麼。換句話說,他們等待了幾百萬年想要得到宇宙的秘密,最終卻發現AI根本無話可說。
今天AI的令人不安的後果是,它很可能會以普羅米修斯之火的理念迷惑整個社會,讓所有人類的努力都為了追求擁有「終極知識」的機器神。如果我們不小心,我能看到整個文明在不久的將來,因為對AI的妄想而枯萎。
就像一種削弱意志的毒品,AI可能會讓人類沉迷於對完全掌控我們存在的虛幻承諾,但卻永遠無法實現它的承諾。與此同時,我們將滅絕,並不久後放棄所有的自我探索和自我提升。因為人類能夠獲得的最偉大的知識,正來自於我們試圖逃避的生命掙扎。
|
|
( 不分類|不分類 ) |