網路城邦
上一篇 回創作列表 下一篇   字體:
AI 道德決策設計原則
2021/05/24 08:33:06瀏覽244|回應0|推薦4
自駕車越來越發達,但是道德問題還未解決,令人擔心。上過哲學課的人,應該會對電車難題印象深刻,沒想到 MIT 研究人員建立一個道德機器網站,從 233 個國家的用戶收集到大約 4000 萬份個人決策數據。結果發現三個關鍵"道德群體",他們將它命名為西部,東部和南部,西部集群包括北美和大多數歐洲國家,東部集群包括許多遠東國家,南部集群包括中南美洲和拉丁美洲。所以未來買到自駕車至少會有三個版本,不能像現在去買美規車。

在 2017 年德國政府制定 20 條汽車道德建議指南,其中一些指導原則是和上述道德機器實驗相違背的。在 2018 年 Google 發表自己的人工智能道德指南,而歐盟也在同一年發布另一個框架。接著 IEEE 也提出自己的框架,同時一些大公司也有自己的人工智能道德指南,將來買車多一項評估標準。

其實最早也是最有影響力的人工智能道德框架之一是阿西洛瑪人工智能準則,它是由一群人工智能科學家和評論員於 2015 年和 2017 年在加州的阿西洛瑪度假勝地確定的,總共有 23 條,全世界人工智能科學家和開發者都被要求簽署這些準則。

解決這些問題的核心都是讓計算機理解我們真正想要的是什麼。逆向強化學習就是針對這一個問題展開的。在逆向強化學習中,我們首先確定"理想"的行為(既人類會怎麼做),然後再制定人工智能軟件能獲得的相關獎勵。簡言之,我們是將人類的行為視為理想行為的典範。

(以上內容摘錄自"人工智能全傳(
A Brief History of Artificial Intelligence: What It Is, Where We Are, and Where We Are Going)"書中第七章)
( 創作散文 )
回應 推薦文章 列印 加入我的文摘
上一篇 回創作列表 下一篇

引用
引用網址:https://classic-blog.udn.com/article/trackback.jsp?uid=robertyjlai&aid=163179730