網路城邦
上一篇 回創作列表 下一篇   字體:
擔憂人類恐因AI滅絕 OpenAI:盼造新團隊讓「人工智能監督自身」
2023/07/10 04:58:35瀏覽5|回應0|推薦0
OpenAI美東時間5日表示,將建立一個新的研發團隊,確保人工智能不對人類造成威脅。(圖/達志/路透社)

繼OpenAI開發的人工智慧聊天機器人ChatGPT,2022年11月問世以來,使得AI的熱潮在全球越發風靡。不過,共同創辦人蘇茨克維(Ilya Sutskever)和協調團隊負責人雷克(Jan Leike)卻認為,超級智能(superintelligence)恐替社會帶來危害。同時,OpenAI美東時間5日表示,將建立一個新的研發團隊,期盼利用人工智能監督自身,使其不對人類造成威脅。

綜合《路透社》、《Slash Gear》報導,OpenAI共同創辦人蘇茨克維(Ilya Sutskever)、協調團隊負責人雷克(Jan Leike),以部落格文章揭示,超級智能(superintelligence)的能力恐致人類喪失自主權,甚至造成滅絕,「目前我們對於掌控潛在的超級智慧AI還沒有解方,也無法預防AI失控。」

同時,蘇茨克維和雷克還在文中表明,解決危機的方式就是要創立一個特殊的監督系統,將以確保AI持續對人類發展有益的「人工智慧對齊研究(AI alignment research)」最大化。因此,他們認為,人類要有比當前還更厲害的技術來控制智能AI,與可能在未來10年內誕生的「超級智能AI」相互抗衡。

針對「人工智慧對齊研究」,蘇茨克維和雷克指出,微軟(Microsoft)支持的OpenAI,預估將在未來4年之內,投入20%的運算能力,解決該項核心技術的挑戰。對此,OpenAI表示,此舉代表團隊將以人類反饋的方式訓練AI系統,旨在利用龐大的運算能力,擴展AI系統協助使用者評估,達到「人工智慧對齊」。

不過,AI安全倡議人士雷希(Connor Leahy)強調,OpenAI提倡的計畫存在根本性的缺陷。他指出,首要的目標應是解決「人工智慧對齊研究」帶來的問題,否則初始的人類等級AI,在被迫解決更高等級AI的安全問題之前,就有可能失控並造成破壞。

報導指出,AI的潛在危險向來是研究團隊,乃至外界關切的問題,早在今年4月,一群AI界領袖和專家曾聯署一封公開信,呼籲相關部門至少在6個月之內,暫停開發比OpenAI的ChatGPT還強大的系統,原因是更先進的AI可能為社會帶來危害。

原始連結

看更多 CTWANT 文章
李玟驟逝/電動馬達臀鼻祖!李玟生前最後演唱身影「水蛇腰」辣翻天 巨星傳奇無法複製
李玟驟逝/曾雅蘭曾患憂鬱症…曝千萬別說「這句」 八點檔女星也認:輕生過多次
國小校園搞不倫!教務主任偷吃新婚人妻女師 被抓包「下身赤裸濕照」慘了

( 不分類不分類 )
回應 推薦文章 列印 加入我的文摘
上一篇 回創作列表 下一篇

引用
引用網址:https://classic-blog.udn.com/article/trackback.jsp?uid=thempajxfljt&aid=179576563