網路城邦
上一篇 回創作列表 下一篇   字體:
過於依賴AI是不智的
2024/08/10 17:56:25瀏覽300|回應0|推薦0

查爾斯·史密斯(Charles Hugh Smith)2024年8月10日
《有問題:人工智能並不智能,而是一種系統性風險》
模仿智能並不等於智能,因此儘管AI的模仿是強大的工具,但它並不是真正的智能。科技的神話中,AI被視為特殊的祭壇,受到虔誠的崇拜,認為它是驚人成本削減(人力被AI取代)和無限制擴展消費及利潤的來源。AI被認為是科技自然發展至更大能力的至高完美。
普遍的共識認為,AI的進步將引領我們進入本質上無限控制自然、擁有豐盈閒暇與富饒的烏托邦。
然而,如果我們揭開這些神話的面紗,會發現AI只是模仿人類智能,而這種模仿如此迷人,以至於我們誤以為它是真正的智能。然而,智能的模仿並不等於智能,因此儘管AI的模仿是強大工具,但它並不具備真正的智能。
目前的生成型AI--「大型語言模型」(Large Language Model/LLM)和機器學習;通過處理無數個人類寫作和言語的範例,模仿我們的自然語言能力,並提取算法選擇的最佳答案來回答問題。
這些AI程式對上下文或主題的意義並無理解;它只是挖掘人類知識以提煉答案。這是潛在有用的,但並不等於智能。
這些AI程式在辨別真偽方面的能力有限,因此容易將虛構的內容誤當成事實。它無法區分統計變異與致命錯誤,層疊上的預防措施會增加額外的複雜性,成為另一失敗的點。
至於機器學習,AI可對計算要求高的問題(如蛋白質折疊)提出合理的解決方案,但這種粗暴的計算黑箱是不透明的,因此價值有限:該程式並未真正理解蛋白質折疊的方式,與人類的理解不同,我們也無法理解該程式如何得出其解決方案。
由於AI實際上無法理解上下文,只能依賴其程式編碼和算法中嵌入的選項。我們可在基於AI的應用程式和機器人中察覺到這些限制,它對實際問題並無感知。
例如,我們的網路連接因系統更新損壞而中斷,但因為這個可能性沒有被包含在應用程式的問題解決範圍內,AI應用程式/機器人仍忠實地報告系統運行正常,即使它實際上是壞的。(是真實例子。)
本質上,每一層挖掘/模仿都會創造額外的失敗點:無法辨別事實與虛構、可接受錯誤率與致命錯誤之間的區別,預防措施所增加的複雜性,以及黑箱的不透明性,這些都會導致正常事故連鎖反應成系統失效的風險。
此外,依賴黑箱AI來操作系統的系統性風險,也會使人類喪失修改或重建系統的能力。對AI程式的過度依賴會創造出數位系統以及依賴數位系統的現實世界基礎設施的連鎖失效風險。
依賴AI解決問題還有更具破壞性的結果。就如同手機、社交媒體和網路內容的成癮性已擾亂了我們專注、集中和學習困難材料的能力--對兒童和青少年的學習造成毀滅性的衝擊;AI提供了大量可快速消化的資訊片段、編碼片段、電腦生成的電視廣告、文章和整本書籍,這些都不再需要我們對主題和過程有深入的了解。缺乏這種理解,我們不再具備進行懷疑性探究或從零開始創建內容或編碼的能力。
確實,獲取這些知識的艱辛過程現在似乎變得多餘:AI機器人可迅速、便宜、準確地完成所有工作。這造成了兩個問題:
1) 當黑箱AI程式失效時,我們不再知道如何診斷和修復故障,或自己完成工作,
2) 我們失去理解能力,即在許多情況下,並不存在最終的答案或解決方案:「答案」需要對事實、事件、過程和知識基礎進行詮釋,而這些本質上是模糊的。
我們不再認識到,AI對問題的回答不是事實本身,而是以事實形式呈現的現實詮釋,而AI的解決方案僅是眾多途徑中的一個,每個途徑都有固有的權衡,這會產生未可預見的成本和後果。
區分詮釋和所謂事實之間的差異需要廣泛而深入的知識,當我們失去學習困難材料的驅動力和能力時,也失去辨識自己所喪失的能力:那些真正知識匱乏的人缺乏理解AI回答所需的基礎知識。
最終結果是,我們變得更無能且知識不足,對因喪失能力所帶來的風險視而不見,而AI程式則引入了我們無法預見或防範的系統性風險。AI削弱了每一個產品和系統的質量,因為模仿並不產生確定的答案、解決方案和洞見,它僅僅產生一種確定答案、解決方案和洞見的假象,我們愚蠢地將這些假象混淆為真正的智能。
當新封建的企業國家對大規模削減人力所帶來的利潤感到歡欣鼓舞時,對人類知識的挖掘和模仿有其限制。依賴AI程式來消除所有致命錯誤本身就是致命錯誤,因此,人類必須保持在決策循環中(觀察、定位、決定、行動/OODA【Observe、Orient、Decide、Act】循環)。
一旦AI程式涉足生命安全或醫療過程,與AI程式連接的每個實體都會面臨開放式(連帶)責任,若發生有害或致命錯誤,則所有相關實體皆需承擔責任。
如果我們去掉神話和誇張,會發現另一種新封建結構:富人將由人類服務,而其餘人則將面臨低品質、易出錯的AI服務,且無法尋求補救。
AI推廣者的期望是生成型AI將通過成本節省和新產品/服務獲得數兆美元的利潤。然而,這個故事並不符合現實世界的情況,因為每一個AI軟體工具都容易被複製/分發,因此無法保護任何稀缺價值,而這正是維持定價權以獲取超額利潤的關鍵動力。
擁有每個人都能使用的軟體工具的價值不大,除非有壟斷限制分發,而這些工具自動生成的內容也幾乎沒有價值:數百萬首AI生成的歌曲、電影、新聞稿、文章、研究論文等將淹沒任何潛在觀眾,從而將所有AI生成內容的價值壓縮至零。
推廣者聲稱,大規模裁減工作將被AI創造的全新產業神奇地抵消,這一說法回響着從農業勞動到工廠工作的過渡。但AI的龍會咬自己的尾巴,因為它創造的工作或利潤很少,無法徵稅以支付人們的非工作收入(如普遍基本收入)。
或許AI最具影響力的限制在於,它無法解決人類最迫切的問題。無法清理大太平洋垃圾漩渦,也無法限制每年釋放的4.5億噸主要未回收的塑膠,無法逆轉氣候變遷,無法清除低地球軌道上數以千計的高速度危險碎片,無法將高度盈利的廢物增長垃圾填埋經濟改造為可持續的全球系統,也無法消除我所稱為反進步的所有來源。它只會增加新的系統風險、浪費和新封建的剝削。
( 不分類不分類 )
回應 推薦文章 列印 加入我的文摘
上一篇 回創作列表 下一篇

引用
引用網址:https://classic-blog.udn.com/article/trackback.jsp?uid=17ab68df&aid=180899764