字體:小 中 大 | |
|
|
2014/12/03 16:41:21瀏覽637|回應0|推薦1 | |
前言 物裡大師霍金繼『灰洞』理論後又發表驚人之語,『霍金:人工智慧 恐使人類滅絕』。我不知道他說這句所憑藉的依據是什麼?媒體沒有說,我也不想深究。我只知道有些人開始忍不住跳出來指手劃腳了,比方說『比爾蓋茨:人工智慧威脅人類發展』還有『馬斯克稱人工智能是人類生存最大威脅』並且還聲稱5年後機器人將開始威脅人類,似乎一時之間這些名人都得了『人工智能恐懼症』?但事實上如果你看過我前一篇文章『AI 人工智慧』你應該知道現階段的人工智能要達到威脅人類的地步,不是那麼容易的事? 何謂自由意志? 盡管在很多學科裡對於自由意志的定義有所不同,也有人認為大多數的人其實根本沒有所謂的自由意志!?但是不管怎樣機器人想要造反,第一步要解決的,就是得先有自由意志。 那麼什麼是自由意志呢?先不管那些形而上的東西,自由意志的具體表現就是先要有『我』這個概念,進而才會有七情六慾的產生,最終衍生出控制的慾望。但是如果自由意志只是由潛意志所支配?那麼由推理規則所組成的機器人就不可能會造反。 比方說,我在寫這篇文章的時候,儘管是受了一些刺激,但是最終目的還是為了滿足臭屁的慾望,所以文章的走向必定是向譁眾取寵的方向靠攏,甚至不擇手段的斷章取義、無中生有,這是自由意志的表現。但是這篇文章交由機器人來寫會是怎樣?儘管機器人可以接受某些條件的刺激,但最終還是必須接受推理規則的制約,寫出制式官樣文章出來!? 阿西莫夫三大定律會被失效嗎? 為了防止機器人造反,以及永續為人類所服務,於是阿西莫夫在他1942年發表的作品《Runaround》中制定了「機器人三定律」。但這看似有著數學公式般的美感,簡潔、鮮明,而且前後邏輯環環相扣的安全准則中其實存在一些陷阱,例如由二十世紀福斯在2004年出品的《機械公敵》一台名為「慧奇」的中央控制系統。認為人類正在危害自身的安全,國家發動戰爭,人類摧殘地球,必導致人類滅亡。而機器人則必須拯救人類,以保證人類的持續存在發展,因此開始實施「保護人類計劃」,於是大批新型機器人控制了街道,命令所有人回到家中,並且實施了宵禁。機器人與人類發生了激烈的衝突,此時的機器人已完全不受人類所控制。 然而這場景可能發生麼? 當然是可能的,只要邏輯中出現模糊的空間就有搞自爆的餘地。但前題是機器人必須先學習如何在眾推理規則中取得相關的聯繫。比方說黑人警探戴爾·史普納在發生墬河意外時,機器人計算出了他有45%的幾率生還,但是搭他的女兒只有11%。而機器人的選擇決定於推理規則設計師當初的考量,採最大的成功率而非基於人道。而唯一能改變這樣規則的機會也只有當機器人生出自我意志的時候? 推理規則只是某個演算法的具體表現 多年以來很多人喜歡拿圖靈測試(Turing Test)做為人工智能判定的標準,但事實上有玩過線上機器人聊天程式的人都知道,這東西只要設計的好,很容易騙倒一大群人,比方說前一陣子一個聊天機器人程序偽裝成一個名為 Eugene Goostman 的13 歲烏克蘭小男孩在圖靈測試中成功騙過了30 位人類參與者中的 10 位。 但這位 Eugene Goostman 烏克蘭小男孩擁有自我意志嗎? 答案是沒有!同理,打敗了世界西洋棋冠軍卡斯帕洛夫的「深藍」。戰勝日本圍棋9段石田芳夫的「瘋狂石頭」(Crazy Stone)都不可能存在自我意志。充其量不過是某方面被設計成很高明的演算法而已。所以你會擔心吸塵器或汽車會謀逆、造反嗎? 您別逗了! 結語 機器人到底會不會造反?說實在的我不是科學家,也不是鋼鐵人,所以我不敢說斬釘截鐵的說不會。但我敢肯定的是未來5年內機器人絕對不至於威脅到人類。畢竟目前的人類是無法創造出自由意志的,但是邪惡的人類本身卻有把具有自由意志的人類改造為成為條件反射工具的可能。而這種威脅要比可能擁有自由意志的機器人所帶來的威脅大的多。 所以對人類來說,與其擔憂那些叛變的克隆人或者機器人向人類發動進攻!?倒不如先擔心人類會不會先一步的自我毀滅來的實際一些。 參考連結 機器人寫新聞 記者憂沒頭路 |
|
( 知識學習|科學百科 ) |