網路城邦
上一篇 回創作列表 下一篇  字體:
仇恨言論是AI佔領人類的木馬
2018/03/10 13:41:03瀏覽696|回應0|推薦1

米高.薩拉(MICHAEL SALLA)2018年3月8日

「反誹謗聯盟」(Anti-Defamation League-ADL)上個月8日的一段視頻揭示了一種新的AI算法,該算法稱為「在線仇恨指數」,旨在識別仇恨言論。ADL表示,AI(人工智能)算法可以被非死不可、YouTube和推特等社交平台,用來識別並快速刪除仇恨言論。

在視頻中,ADL技術與社會中心的主管布利坦.黑勒(Brittan Heller)說,該指數的目標是:

幫助技術平台更好地理解社交媒體上越來越多的仇恨,並利用這些信息來解決問題。通過將AI和機器學習和社會科學相結合,網絡仇恨指數能揭示和識別不同平台上仇恨言論的趨勢和模式。

https://www.youtube.com/watch?v=lULmie51-pU

今年1月在其網站上發佈的「第一階段創新簡報」中,ADL進一步解釋了「機器學習」,一種基於算法的AI形式,可以用來識別和刪除社交媒體平台上的仇恨言論:

https://www.adl.org/education/resources/reports/the-online-hate-index

「在線仇恨指數」聯合倡議ADL的技術和社會中心,和加州大學伯克利分校的發展實驗,旨在通過機器學習人類仇恨言論的理解轉換成一個可擴展的工具,它可以部署在互聯網內容發現的範圍和傳播網絡仇恨言論。

通過機器學習的不斷發展的過程,基於協議由一個團隊開發的人類程序員,並不構成什麼仇恨言論,此工具將仇恨言論中發現和識別趨勢和模式在不同的網上平台,允許我們推動必要的變化,確保在線社區是安全的和包容的空間。

ADL接着說:ADL的在線仇恨指數被描述為「一種基於情感的分析,它從機器學習中消失了。」

創建在線仇恨指數的每一步中所做的所有決策,都是為了構建一個機器學習的模型,該模型可以用來識別和幫助我們理解在線的仇恨言論。

AI的ADL和其他啟動子未能抓住的是AI的潛力,通過它的編程能力,讓「機器學習」成為像「終結者」和「太空堡壘卡拉狄加」這樣的電影中出現令人恐懼的,相互關聯的感知智能。

眾所周知,斯蒂芬·霍金斯(Stephen Hawkins)和埃隆·馬斯克(Elon Musk)等科學家和發明家,一直在大聲警告AI帶來的長期威脅。他們和許多人士認為,AI對人類構成生死存亡的威脅,需要受到嚴密的控制和監控。在2014年的一次演講中,馬斯克說:

我認為我們應該對AI非常小心。如果我必須猜測我們最大的生存威脅是什麼,那麼可能就是這樣。所以我們需要非常小心AI......。

「我越來越傾向於認為,應該有一些監管,也許在國家和國際層面上,為了確保我們不會踏上不歸路......比如愚蠢的好像召喚惡魔一樣的去喚醒AI。你知道的,猶如電影中的正邪大鬥法,巫師用五角芒星召喚惡魔,然後牧師用聖水驅魔等,但......他能控制惡魔嗎?無法辦到。

在2014年12月接受英國廣播公司採訪時,霍金曾對AI的危險提出過警告:

完整的AI發展可以把人類終結......它將自行起飛,並以前所未有的速度重新設計自己。......人類有限的生物進化緩慢,無法與其競爭,我們將被取代。

同樣,古雷古德(Corey Goode)稱AI已是一種威脅,他是一名內部人士,揭露了多個秘密太空項目的存在。當他在2015年嶄露頭角時,把火力集中在AI的威脅上,直到今天他仍然發出同樣的警告。

他說,基於這些項目,連同外星文明,都採取了嚴格的安全防範措施,以確定和移除任何種類的AI跡象:

SSP(秘密太空計劃)已和數個外星「AI」團體(從我們的角度來看,都對人類有惡意)交手了數十年。

如果一個「個體」被「掃描」出現「生物神經AI」、「AI納米科技」或「AI相關的重疊類型布萊恩波(EMG type Brian Wave)」(或任何其他AI)的跡象,這些個體就會立即隔離,不允許接近當今時代SSP技術(「主要」生物神經和意識互動),直到它們所有的AI被「清除」為止。

現在,讓我們來分析一下ADL在社交媒體平台上的建議,使用AI算法來識別仇恨言論。

乍一看,在監控言論和規範人們在社會、宗教或經濟方面,針對他人的恐懼、仇恨或暴力的想法上有很大的吸引力。畢竟,我們都希望生活在一個和平包容的世界裏,其中包括網絡空間。那麼,為什麼不排除來自社交媒體平台的不寬容和仇恨的個人和群體呢?

當然,最大的問題是,社交媒體可能會被秘密地用來排除那些以「仇恨言論」為幌子的不同政治觀點。我們已看到在Youtube上出現,使用了來自南方貧困法律中心等團體的1萬名志願者。

http://dailycaller.com/2018/02/27/google-YouTube-southern-poverty-law-center-censorship/

許多受歡迎的YouTube的頻道正日益成為攻擊和刪除行為的目標,這些行為被認為是恃強凌弱或仇恨言論。然而,這次YouTube的打擊,似乎是一場精心偽裝的政治運動,旨在消除對官方媒體對大量社會問題的質疑,而不是真正打擊仇恨言論。我寫了關於這個問題的文章,如恐嚇或仇恨言論。

https://www.exopolitics.org/youtube-purge-of-social-media-threatens-full-disclosure/

然而,ADL的提議遠遠超出了YouTube上目前的水平。ADL正在公開推廣一種審查制度,在這個平台,人並不會去真正的監視和刪除仇恨言論,而是使用AI算法。如果霍金、馬斯克和古德所指的AI警告是真的話,可能會導致什麼結果呢?

愛因斯坦沒有意識到,如果社交媒體平台准許AI算法監控和審查內容,那麼對未來AI威脅的警告將會被視為一種仇恨言論。畢竟,如果企業可以被認定擁有與個人相同的權利,根據最高法院在200年的聯合裁定,那麼,在美國,人們是否也會認識到在美國擁有類似的人權?

我們很容易陷入反烏托邦的未來,在那裏,不同形式的AI被用來監視和規範人類的行為,任何人類抗議或警告AI系統的所為,將被審查為仇恨言論。

鑑於AI帶來的威脅,如果我們正視霍金、馬斯克和古德的警告,首先應免除不相稱的審查替代新聞視角,然後不惜一切代價保護社會媒體的言論自由。

在美國,鑑於憲法第一修正案賦予公民言論自由的權利,以及聯邦法院系統中可獲得的法律補救措施,這不應構成太大的挑戰。揚言要對YouTube採取法律補救措施的人士,似乎是最成功的恢復渠道。因為1萬名熱情的新用戶,所以YouTube向他們致歉。

https://www.theverge.com/2018/2/28/17064470/youtube-infowars-right-wing-channels-strike-ban-moderator-mistake

然而,當他國家積極對個人、團體和仇恨言論實施懲罰時,美國則是一個無邊苦海中的孤島。考慮到國家監管機構將懲罰那些不規範仇恨言論的社交媒體平台,未來的前景似乎不妙。這將迫使非死不可、YouTube、推特和其他平台,採用ADL或其他組織推薦的基於AI的算法,以供廣泛使用。

這可能會導致像中國,或者像歐盟這樣的超國家實體,可能會採用AI算法來監控和定期的仇恨言論。中國已在通過防火牆嚴密監控,和移除媒體平台上的異見政治思想,並且很可能考慮合併AI算法以更有效地進行。

https://img.washingtonpost.com/rf/image_1484w/2010-2019/WashingtonPost/2016/05/23/Foreign/Graphics/2300chinafirewallYY-v3.jpg?uuid=p-053iErEea5RFL3sXk9rg

雖然全世界的國家監管機構可能會因為不同的原因而受到誘惑,採納ADL的AI算法來識別和刪除仇恨言論,但我們需要牢牢記住,這將為AI控制人類創造一個特洛伊木馬。

儘管仇恨言論確實帶來問題,但國家監管機構需要確保,社交媒體平台永遠不會受到AI算法的監管,因為全球安全的潛力將被削弱,而太過依賴AI將真正危及人類。

( 不分類不分類 )
回應 推薦文章 列印 加入我的文摘
上一篇 回創作列表 下一篇

引用
引用網址:https://classic-blog.udn.com/article/trackback.jsp?uid=17ab68df&aid=110966216