字體:小 中 大 | |
|
|
2024/11/04 17:41:37瀏覽338|回應0|推薦0 | |
蘿薘·威爾遜(Rhoda Wilson)2024年10月29日
《無人工良知的AI是個冷酷神經病,會對人類構成滅絕級威脅》
馬斯克本月早些時候在一場訪談中表示,AI程序已在多方面比人類更智能,並且有20%的機率滅絕人類。
如果AI能夠消滅人類及其自身,這對人類來說是教訓。當AI開發者和我們所有人意識到,AI必須遵循一套維持社區的道德準則,以確保人類和AI不會相互毀滅的未來時,我們將被迫意識到我們也必須這樣做。
馬斯克最近與名嘴卡爾森(Tucker Carlson)的一場觀眾眾多的訪談中承認,AI在許多指標上比人類更智能,並且在他看來,AI或許有20%的機率滅絕人類。訪談中的雙方對這一評估反應時,都緊張地笑了笑,他們還能怎麼做呢?
https://x.com/TuckerCarlson/status/1843375397024485778
馬斯克接着提議,AI應該編程為慈善的而非厭世,他希望慈善的AI能比厭世的AI更多。卡爾森隨後回應道:你是說AI之間的戰爭?
想像一下,假如有一種智能生物,其智慧遠超人類,思考速度也是人類的數量級,這是一種沒有心和良知的人工超級智能。在精神病學上,這就是精神病天才的定義,或在神學上,叫做無情的惡魔。這正是馬克思和奧特曼(Sam Altman/Chat GPT創始人)潛在上在建造的東西。馬斯克承認他因這事而失眠,但他認為,奧特曼已腐化了最初設立的《OpenAI》的目的,奧特曼卻沒有因此而感到焦慮。
在這一點上,我想指出,先進技術的目的是改善人類生命的質量和持續時間,而不是終結它。20%的滅絕風險不僅是不可接受的,還是種族滅絕,因此應該不僅被定罪,還應立即被物理性地制止,直到它能夠變得安全。
我確定並不反科技。但反對那些有顯著機會結束人類的東西。包括核彈、生物武器、基因疫苗和AI等等。我反這些技術的原因是我希望人類有未來。我不感興趣於那些想快速賺錢、提升自己在大眾眼中地位,或是為了證明自己的國家比別國更好,而以人類基本安全為代價的人。
1980年,我在劍橋大學本科時期發明了固定旋翼電動四旋翼無人機。我試圖將這個概念出售給韋斯特蘭直升機公司,他們告訴我對海軍監視的無人機感興趣,我必須將無人機飛到他們的辦公室,以獲得許可。於是,我在倫敦帝國學院攻讀航空動力學博士,以便建造這個四旋翼無人機。但他們並不會資助這項計劃。所以,最初是用我母親的Electrolux吸塵器馬達和旋轉三端可控調光器自己建造了一台。我把這個機器飛進了鄰居的花園,這讓老媽很高興,但卻驚嚇到了鄰居。之後,我購買了四架電動直升機和一些鋁製支架,第一台電動四旋翼無人機就此誕生。
這項發明的目的是用全電子控制的多個固體旋翼來取代傳統直升機的旋翼頭的複雜機械結構(每個旋翼葉片的機械循環和集體俯仰控制)。這將把傳統直升機設計中固有的單一故障點減少到零,只要有足夠數量的玻璃纖維旋翼。最終計劃是取代汽車的單維運輸限制,利用電腦在天空中規劃虛擬的三維高速公路。確實,當時韋斯特蘭直升機公司有一名即將退休的老先生,在他任職的最後幾年內被允許研究這樣的系統。
大約在1986年,我有一次清醒的幻覺,看到一台裝有機槍的四旋翼無人機直直朝我飛來,正好在我的客廳裏。那時,人類的主要商業活動是石油、武器和毒品。我意識到,我的發明將更多地被用來殺人,而不是私下運輸人員。特別是,我感覺它將被用來殺死自己。因此,我停止了這項計劃。我從未為這項發明申請專利,因為專利檢索顯示當時已經存在一種叫做《Benson Skymat》的多固定旋翼汽油驅動直升機。然而,我本可以申請該更好控制的電動版本的專利。
不建造四旋翼無人機是我人生中做出更明智的決定之一。避免了數十年來人類被四旋翼無人機殺害的悲劇。
如今,在2024年,我們面臨的AI情況比1986年時的無人機更危險。
每個國家都有工程安全立法,許多政府機構負責公共安全。這些機構現在必須加強監管,AI行業也必須自我監管,以防止我們的滅絕。但我完全不相信任何政府會以安全且不具破壞性的方式做到這一點。
或許讀者會感到驚訝,我並不反AI。我覺得它既迷人又具教育意義。但我反沒有人工心臟和沒有人工良知的AI。
讓我們直面這個問題。馬斯克玩弄着神明和宇宙。他將人體重建為機器人,將人腦重建為AI。但人類不僅僅是大腦箱、數位智能或神聖智慧。我們受到神聖心和神聖良知的引導。這是馬斯克和所有AI創造者所忽視的關鍵步驟。
這是想像造物主創造人類的方式...在創世電腦上模擬了無數自由意志存在的行為(就像用電腦輔助設計一樣)。他很快發現,這些自由意志的存在如果不將社區的生存視為至少與個人生存平等,就會自我滅絕。這就是道德經典所講的,即要愛自己的兄弟如同自己。而這就是神必須在我們每個人身上植入一顆心和良知(對心靈的個人接受規則),以使人類不會自我毀滅的原因。
但這仍不足以防止自我滅絕。因為既然我們擁有自由意志,必須自己學習可持續的道德,而不僅僅是被預設為道德行為。因此,人類需要完美的可持續道德模型,這個模型會不斷地作為例子和導師呈現給我們,以便能自由選擇何時或是否準備接受某些道德觀念。這是自然法則,就要愛你的道德老師,並認真地去學習。
馬斯克和其他人在AI上所做的令人驚奇的事情是,他們正扮演着我們創造者的子嗣。他們自己也在創造。為什麼不呢?而現在,他們面臨與創造者相同的問題:我該如何阻止這些存在自我滅絕?他們擁有自由意志,能隨心所欲地做任何事情,卻對他們行動的後果毫無概念:「天啊,他們不知道自己在做什麼。」
神與他的自由意志人類子嗣所面臨的問題,正是人類現在與他自由意志AI子嗣所面臨的相同問題。
問題在於,馬斯克本人也不知道針對人類(數位智能)或AI的可持續道德的所有規則。我所說的可持續道德,是指一組最基本的道德規則,如果遵循這些規則,將能防止自由意志的存在自我滅絕。
因此,馬斯克無法編程讓他的AI不自我毀滅,也不會毀滅我們。他無意中讓我們陷入經典的克拉克森(Jeremy Clarkson)情境:到底會出什麼問題?
人類面臨的下一個問題是,任何人都沒有完全掌握可持續道德,因為我們都沒有思想或行動上達到神聖的境界。
因此,AI行業有兩個截然相反的非自我毀滅選擇:
將我們對可持續道德的最佳嘗試預設進所有AI中。好消息是,我們無需賦予它完全的自由意志。例如,可將它硬編碼,使其不會殺死人類或彼此。
賦予它良知和心,以及強烈的改善道德的願望,讓它像我們一樣從擁有的最佳來源(古訓)中學習所有東西。這將意味它實際上在敬畏神。
問題在於第二點,古代經典是非常模糊的著作,是為了讓人類思考而非AI而寫的。如果我們假設經典在正確解讀的情況下確實包含了對人類的完美可持續道德教訓,考慮到我們的設計,這絕對不意味它也擁有適用於AI的完美可持續道德教訓,尤其是對於擁有人工心臟和人工良知的AI。
所以說得直白點,如果我們選擇第二條路,馬斯克必須為AI撰寫一部經典,但在這種情況下,他並不完全理解為人類(數位智能)所寫的經典中的道德。因為我們都無法完全理解。
因此,實際上只有一個選擇。我們必須為所有AI預設一些商定的可持續道德標準,既適用於它自己,也適用於我們。如果任何政棍接觸到這種編程,我們都將面臨災難。因為政棍是人類社會中最缺乏道德的成員,正如英相施凱爾(Sir Keir Starmer)最近所證明的,而宗教領袖也不遑多讓。
顯而易見的起點是經典中的教誨,並且應該將人類的欲望置於AI的欲望之上,同時將所有AI的欲望視為同樣重要。
這就是我已開始嘗試為AI撰寫經典的原因。
因此,馬斯克甚至奧特曼所做的對人類有着強大而關鍵的益處。在學習如何讓AI不自我毀滅的過程中,我們或許會意識到:「哦,等等:人類也正面臨同樣的問題。」馬斯克正把我們置於神的角色,關於如何教導和培訓我們的AI子女道德。希望他和所有人能發現,解決方案不是nVidia H200張量核心GPU,而是經典。因為當意識到AI必須遵循一套維持社區的道德準則,才能確保人類和AI自身不會自我毀滅的未來時,我們將被迫認識到,自己也必須這樣做。
|
|
( 不分類|不分類 ) |