網路城邦
上一篇 回創作列表 下一篇   字體:
我們需要能負責任的AI
2024/03/30 18:39:52瀏覽428|回應0|推薦2

傑遜·西諾雷特(Jason Signolet)2024年3月19日
《確保掌握在人類手中:不可忽略的認清AI可能帶來的風險與機遇》
在澳洲,科技巨頭在去年12月表示:「2023年是谷歌搜尋成立25週年,也標誌一個季節的好奇心。」與此同時,谷歌推出了「年度搜尋」,突顯了它如何受到澳洲人關注事項的影響,列舉了從《Optus》網絡故障和加沙戰爭到新的皇室時代,查爾斯三世國王和卡米拉皇后等在2023年的一些引人注目的搜尋趨勢。
這引出了我們受到影響的問題,當然,這也提出了AI的議題。
例如,谷歌的自動完成功能利用AI來預測用戶輸入的內容,並根據熱門查詢提供建議。儘管旨在提高效率,減少25%的輸入時間,但人們對於此技術中部署的AI的中立性表示擔憂。發現它會產生冒犯性、不準確或誤導性的建議,例如「女性應該待在家裏」等。
隨着科技和媒體如此深入地紮根於社會體系中,AI的發展和應用成為永恆的問題;特別是在監管尚處於初期階段的情況下。
負責任的AI。
近年來,「負責任的AI」這個術語已成為常見的詞語,用來反駁對AI的恐懼和擔憂。然而,新南威爾斯(NSW)監察官提醒說,「負責任的AI」是一種技術供應商的言論手法,認為這樣做有風險,可能會混淆誰其實對AI的發展負責的真正問題。
值得注意的是,歐盟在解決這個問題上取得了一些進展。它最近剛剛完成了世上第一個AI法案,將強制執行對高風險和通用AI的開發、部署和使用設定約束性規則。
因為當AI被用於支持,甚至取代日常流程和決策時,風險就很大。
在《ChatGPT 》將AI帶入主流之前的2018年,這項技術已通過美國法律系統引入。根據僅僅一個算法做出的判決,被判了更長的監禁期。
從那時起,《TikTok》被16.77億用戶下載,其強大而全知的推薦算法已證明是危險的。用戶很快就可以從相對溫和的喜劇片段轉移到惡意的片段,無論是激進的觀點、極端主義的內容,還是特定意識形態邊緣的宣傳。
這是獎勵機制不良的算法的典型例子,公司優化腳本以獲得自己的利益,即通過推送引起強烈情感的內容來使用戶受到吸引,而不考慮社會危害,包括猖獗的極端化。
這是相關的,因為在最近的幾個月,澳洲社交媒體平台上的反猶太主義和伊斯蘭恐懼症內容有所增加。
雖然聯邦政府對電信具有管轄權,但尚未對軟件或其部署進行規範。儘管通訊部長羅蘭(Michelle Rowland)暗示要更新基本的網上安全期望,要求科技公司確保其算法不會放大有害或極端內容,包括種族主義、性別歧視和同性戀恐懼症,AI的規範仍掌握在工業界手中。
在存在濫用可能性的情況下,開發人員和數據科學家有責任通過道德AI設計原則來避免這種情況。這明確地減輕了技術可能造成的潛在危害。
然而,我們常常看到在道德AI開發中忽略了基本原則。AI的發展可以遵循不同的途徑,取決於開發人員的目標和方法。我每天的工作是構建可信賴的AI,其中包括對安全使用設計的途徑進行仔細考慮。AI最明顯的用途應始終是最安全的。
AI開發人員應遵循一些基本原則。首先是偏見減輕:AI模型應設計得仔細,以避免不公平或歧視性的結果。
透明度和可解釋性也應予以考慮,以避免神秘的黑盒子AI情況,其中AI的過程和輸出是站不住腳的。
最後,責任制是至關重要的,以確保在出現錯誤時(它必然會發生),有手段加以糾正。
即使有了這一切,真正負責任的AI還需要保護性框架,防止流氓份子刻意使用技術來謀取金錢或犯罪。你不能在軍備競賽中跑得快,但可以打敗參與其中的人;只需深入了解那些刻意使用技術來造成傷害的人的思想。
雖然個人刻意利用技術造成傷害的風險存在,但培訓AI的開發者有責任確保這些途徑盡可能受到控制。

約翰·伊德多(Johan Eddebo)2024年3月17日
《生成式AI將毀掉科學與研究》
現代大眾媒體的知識論
我常常回頭閱讀波斯曼(Neil Postman)1985年的經典作品《自娛自樂至死》(Amusing Ourselves to Death)。這是一部深刻分析媒體技術對認知影響的著作。主要關注的是溝通方式和模式如何影響內容的性質,以及這些內容如何訓練我們,但也在較小程度上關注討論和信息交流的「氛圍」如何影響這些問題。
將近40年了,當時受到關注的破壞性媒介是電視。整個方法幾乎顯得有些古雅,1980年代相對於當前時期來說,是比較重視批判性思維、複雜論述和有意識、有創意的公民的黃金時代。
儘管如此,波斯曼強調的問題在當時已非常重要。可以用電視的格式對公共話語的內容和性質以及對人類的認知能力,特別是在理解複雜問題和解析具有多層次和分支影響的論點和證據方面的影響,來概括他的批評。
波斯曼的基本觀點是,書面論述和複雜的口頭傳統都培養並準備人類思想進行批判性思考和理性反思。相反,以電視為代表的娛樂媒體和話語,以短期滿足和傳播引人入勝的體驗為目標,卻產生相反效果。
他的例子當時就相當顯著:
簡而言之,矛盾必須將陳述和事件視為連續一致的上下文中相互關聯的方面。消除上下文或將其分割,矛盾就會消失。對我而言,這一點在與年輕學生討論寫作時最為清晰。
我說:「看這裏,在這一段中說了一件事。而在另一段中卻說了相反的。到底是哪一個?」
他們很有禮貌,並且希望取悅我,但是他們對這個問題和我對答案一樣困惑。他們會說:「我知道,但那是那,這是這。」
我們之間的區別在於,我假設「那」和「這」,「現在」和「那時」,一個段落和下一個段落是相互關聯的,是連續的,是同一貫思想世界的一部份。
這是印刷體話語的方式,而印刷體是我所「來自」的宇宙,就像他們所說的。但是,他們來自完全不同的話語世界:電視的「現在...這」世界。那個世界的基本假設不是一致性,是不連續的。在不連續性的世界中,矛盾作為真理或價值的試驗無用,因為矛盾根本不存在。
觀點是,我們已完全適應了新聞的「現在...這」世界;破碎的世界,事件孤立存在,被剝離與過去、未來或其他事件的任何聯繫,所有一致性的假設都已消失。因此,矛盾也必然消失。
在所謂的無上下文的情況下,它就會消失。在它的缺席中,國家元首現在說了什麼和他以前說了什麼的列表還有什麼可能的興趣呢?這只是舊聞的重溫,其中沒有任何有趣或有趣的東西。
~波斯曼,同前。
對大多數人來說這並不陌生。今天早上,我甚至在與某人嘗試討論時也有過類似的經歷,令人難以置信的是,他在幾段短短的段落中竟然陳述了4個不同的、互相不相容的觀點,當然他還堅持認為我是錯的。他的立場包含了以下命題:
1)信念是荒謬的
2)信念應該僅基於可接受的證據
3)可出於任何理由持有信念
4)信念根據定義是以情感為基礎而非可接受的證據
這些聲明與彼此每一個都完全不相容。
這就像是複雜版本的說謊者悖論。如果同意他,我必然是錯的,如果不同意,我也是錯的。但與舊的思維實驗相比,我的錯誤不在於直接肯定聲明的相反,而在於在這裏,如果同意或反對他的立場,我如何是錯的,因為它在內部是不一致的,不僅僅是二元的意義上。
這種話語上的混亂幾乎令人印象深刻。
因此,正如大多數人所認識到的,這種交流,至少在某種程度上,反映了數字領域中當代公共話語的知識論特性。溝通通常是簡化和離散的,如果它接近一定程度的複雜性,幾乎立即就會偏離到上述的矛盾、無關或實際無意義的地方。
這對於知識一般,尤其是對於包含在科學或人文等傳統中的人類文化的複雜知識的質量、保留和再現意味着什麼?
首先,我認為像我們這樣的情況,將顯著縮小可供有效管理這些知識傳統的艱難且常常費時工作的可用候選人,無論是對個人還是對維護這些傳統所需的機構或組織而言。
你不會有很多人能夠寫出《浮士德博士》或《常識》,或者創作出任何與時代精神、性格和問題完全連結的藝術作品。即使能夠產生類似的作品,也不會有很多人能夠理解它。
在很大程度上,問題在於我們這個不連貫的時代及其媒體技術未能使人具備全面理解基本抽象原則的能力,以及將具體經驗和見解的精髓轉移到另一個語境中。我們基本上沒有得到對使複雜話語,和批判性思維成為可能的普遍常識抽象和概念的充份了解。
缺少這種熟悉,我們就不太能夠理解新的混亂情況,看到不同經驗和知識形式之間的聯繫和相似之處。理性本身也會受到侵蝕,正如阿奎那(Aquinas)可能會說的。
我們獲得的知識是專業化的、商品化的和工具化的,雖然它可能非常廣泛,但卻有一種封閉的特性,並不能有效地使抽象和全面的批判性思維成為可能。這有點像有人僅通過死記硬背就能夠可靠地使用電腦而對數學僅有初步的理解。他可以操作這個設備,但不是涉及的學科的主宰。永遠無法設計和建造電腦。
普羅泰戈拉斯(Protagoras)曾說過「人是萬物的尺度」,他的觀點可能不是相對主義,而是人類能夠(或應該能)對世上任何情況和事態進行理性評估。
當代AI的累積效應
好的,關於知識的性質和問題,以及我們所處的整體話語、媒體技術和認知適應背景,還有很多值得討論的,但讓我們在這裏專注於AI。
當代AI是一套設計用於監控和紀律,控制信息流動,並在新自由主義框架下大規模生產文化內容替代品的模式識別系統。
如果這樣一套系統成為社會知識生產的整合部份,它可能造成的損害無法言喻。不僅是它極大地加劇了上面試圖勾勒的背景問題,即那些幾乎完全缺乏闡述並以易於滿足的娛樂為目標的聳動的數字媒體環境的問題。
自學習、信息整理的算法的基本目的始終是通過加強可取的行為模式來最大限度地減少產品與消費者之間的距離。換句話說,這些算法主要會傾向於加強有效支持資本從員工;消費者處提取剩餘價值的行為。
這是可多次重申的觀點。谷歌不是圖書館,它是一家私營公司,旨在以獲利為目的組建的系統,用於商品化信息,對於我們關心的數據既沒有義務也沒有真正的激勵去處理。
而且,這樣的公司及其類似公司在幾乎完全集中的信息架構中進行持續的激烈競爭,該架構立即將全球幾乎每個人都連接起來。這就像大白鯊不能停止移動否則會窒息一樣。
因此,我們設計了完美的系統,用於快速發展這些將信息商品化的系統,以實現最大利潤,這也與一個集中的通信架構相一致,該架構使對谷歌算法的單一修改能夠同時影響到幾乎全球的每個人。
波斯曼對電視的疑慮確實顯得古雅。
由上文可知,除了加強消費者短期利潤行為之外,這些系統的信息輸出的任何其他品質(與廣告業相比)都變得無關緊要。它充其量是次要的優先事項,只要它干擾了利潤指令,就會被積極壓制。此外,這些優先事項將立即在全球范圍內產生影響。
在資本主義框架下,這些用於信息商品化的數字系統無法有所不為,否則它將會窒息。
當我們將AI添加到上述混合中,特別是「生成」類型時,這些問題過程就會變得更加惡化。在當前形式下,AI作為一個乘數,加強了在既定經濟秩序及其數字交換結構中將信息商品化的過程。
自學習算法使信息流動更加流暢,並以令人難以置信的速度和特異性實現針對性的廣告、宣傳和敘事控制。此外,通過GenAI(Generative AI/生成式AI),還能自動生產信息商品,這些商品必然會針對監控、營銷和行為修改目標進行定制。
否則,白鯊將會窒息。
因此,我們可以自問培養全面獨立思考者、精神成熟、能夠滿足自身需求且具有內在控制力是否會支持資本的短期利潤激勵。
這個問題的答案決定了目前設計的專有算法的傾向,以實現全譜信息主導地位。
科學與學術研究
這與科學的未來有什麼關係呢?嗯,其影響是巨大,幾乎是全方位的。首先,大規模培訓狹窄專業的消費者,他們不熟悉普遍概念和抽象,也缺乏批判性思維,將無法成為複雜知識傳統的有效管理者和更新者,無論我們是在處理粒子物理學還是民間醫學。
沒有普遍概念,沒有邏輯的熟悉,沒有因果關係原則,也沒有不受特定情境影響的合理證據的理解,人們將越來越難以看到不同學科之間的聯繫,內化自己對世界的一貫觀點,這是獨立運用理性的必要條件。在陌生情況下創造新知識並適應未預見的情況時,人們將變得更不勝任和缺乏自信。就像上面死記硬背的計算器操作員在機器故障時無法用筆和紙進行數學計算一樣。
上學意味學會閱讀,因為沒有這種能力,一個人無法參與文化的對話。但大多數人都能閱讀,並參與其中。對這些人來說,閱讀既是他們與世界的聯繫,也是他們的世界模型。
印刷頁面逐行、逐頁地展示了世界是嚴肅、連貫的地方,可以通過理性管理,可以通過合理和相關的批評進行改進。
~波斯曼,同前。
然而,除了對我們認知能力的不利影響,儘管這可能很嚴重,但基因GenAI和當前的晚期數字化進程在結構上還存在顯著的方面,可能會損害我們傳統知識中固有的信息和經驗的性質和質量,無論是古代還是現代的。
請記住,由於不可避免的結構性原因,集中的信息架構將傾向於促進那些強化行為的信息,這些行為又支持資本從員工--消費者那裏提取剩餘價值。可靠性、客觀性和我們可能希望優先考慮的其他一百個質量衡量標準幾乎是不相關的。利潤動機以及輔助目標,例如宣傳、戰略觀點形成和減少破壞性話語,將是首要考慮的事項。
隨着GenAI的產出,特別是由於集中的數字架構,開始主導通信渠道和模式,以及我們信息存儲庫中的內容,AI輸出的性質將對仍存在的任何知識傳統中保留的數據的質量產生顯著影響。
換句話說,科學作為一種知識傳統的內容和運作模式將傾向於符合設計用於信息商品化的系統固有優先考慮的目標。傾向於強化有利可圖的消費者行為和戰略觀點形成。
通向這種可恥結局的一條途徑是將生成型AI引入當代學術界的「發表或淘汰」框架。我們只需要說,不僅學生會利用《ChatGPT》或類似的系統走捷徑,而且所有擁有碩士學位或以上學歷的人都會完全避免參與這樣的行為。
絕非如此。目前學術競爭的文獻計量模型將使我們這些拒絕碰觸這些工具的少數人處於顯著的劣勢。相較之下,我們的產出將大大受限於那些借助定制的GenAI工具,也許每天能產出兩篇可行的研究文章的人。這些文章可能水準不佳且缺乏創新,但這主要是一場數量競賽。
隨後,將有幾種機制增加AI生成的材料在科學界和學術界的顯著性,其中一個重要因素是將這些垃圾填充到履歷中的人們將在爭取聘任、獎學金和研究職位的競爭中取得進展,這將迫使其他人效仿。期刊將利用這種產出通過粗暴手段增加通過量、可見度和市場份額,進而迫使競爭對手效仿。低成本期刊將大量洪水般地灌注半自動化生成的內容到市場中。
研究人員和科學家將最終成為被吹捧的「提示工程師」。
或許有人會有些天真地想像同行評審流程仍然能夠作為可靠的質量控制機制,濾除其他方面惡化的最糟糕的現象。但這是錯誤的。
同行評審人,這種奇怪的人群,願意不求報酬地進行繁瑣乏味的工作,當然會面對大量乏味、水準不佳、由AI生成的文章,因為使用這些工具預料中的生產量增加。那麼這個小難題的不可避免的解決方案是什麼?
將有AI評審人檢查由算法寫成的文章,這些文章發表在沒有人閱讀的期刊上。除了也許是AI自己,現在它在生成自己的培訓數據,形成充滿結構性整合幻覺的邪惡信息反饋循環。
那麼質量控制在哪裏呢?這甚至是否可想而知?誰將對大量AI生成的材料進行「事實核查」?參照什麼數據?AI生成或精心挑選的研究文章,其信息已與可靠性、客觀性和有效性脫節,現在被生產出來以加強有利可圖的消費者行為和戰略觀點形成?
這一切都構成了極為邪惡的認識論問題的種子,即人類可獲得的證據的基本質量。如果這一切進展得更遠,我們實際上正接近全新的人類知識情境,其中基本的證據鏈將被打破。我們無法真正相信通過集中式數字基礎設施接收到的任何信息,都是來自真實的人的經驗、結論或發現的真實描述。一切都有可能被質疑。
...一切一切。

卡西比(Cassie B)20024年3月15日
《科學家警告AI可能在3年內超越人類》
如果今日AI工具(如ChatGPT)的眾多缺點讓你對超越人類智慧的AI仍感到信心不足,那麼請重新考慮。據一名頂尖科學家警告說,這場噩夢般的情景可能比先前的預測提前數十年,甚至可能僅僅在幾年之內成為現實。
這項警告來自於數學家和未來學家本戈策爾博士(Ben Goertzel),他以普及「人工通用智能」(Artificial General Intelligence/AGI)一詞而聞名。在本月的一次峰會上,他表示:「很有可能我們在接下來的3到8年內達到人類水平的AGI。」
https://www.dailymail.co.uk/sciencetech/article-13165581/top-scientist-ai-surpass-human-intelligence-2027.html
他補充說,一旦我們達到人類水平的AGI,過不了幾年就會出現一個根本超越人類的版本。儘管承認預測可能不準確,但他表示,唯一阻止智力遠超越其人類創造者的AI的是,如果一個AI機器人的「保守」使其被迫謹慎行事。他相信,AI技術的指數級升級是不可避免的。
戈策爾一直在研究人工超級智能,這是一個可以匹配人類文明所有計算和腦力的AI的術語。他指出,由谷歌電腦科學家兼未來學家庫爾茨威爾(Ray Kurzweil)開發的預測模型表明,這種智能將在2029年可能實現。
這種觀念在過去幾年取得的巨大進步進一步所支持。這項技術發展得如此之快,以至於世上許多人現在都對該技術的潛力有了充份的認識。
他最新的提醒僅僅是近年來對這項技術所做的幾次警告之一。去年5月,他警告說,AI可能在未來幾年內取代80%的人類工作,並表示,任何涉及文書的工作都可能被自動化。
AI行業領袖警告,風險與大流行和核戰相當
去年,一群行業領袖警告說,AI技術可能對人類構成生存威脅,並應該被視為與核戰和致命大流行的風險一樣危險。
非營利組織AI安全中心發佈了一句話的聲明,其中寫道:「緩解AI對人類滅絕的風險應該與其他社會規模風險一起成為全球重要任務,如大流行和核戰。」
這份聲明得到了包括工程師、研究人員和參與AI領域的高管在內的350多名專家的簽署。簽署者包括谷歌《DeepMind》的CEO哈薩比斯(Demis Hassabis)、《Anthropic》的CEO阿莫德伊(Dario Amodei)和《OpenAI》的CEO奧特爾曼(Sam Altman)。
兩位被認為是現代AI「教父」的研究人員本基奧(Yoshua Bengio)和希爾頓(Geoffrey Hinton)也簽署了這份聲明。
世界應該非常擔心,深度參與這一行業並且可能從中獲益最多的人敦促政府監管這項技術,鑒於其潛在危害。
據AI安全中心執行主任亨德里克斯(Dan Hendrycks)表示,許多業內人士對這一趨勢感到恐懼,他告訴《紐約時報》:「即使在AI社區中,也普遍存在誤解,認為只有少數人持悲觀態度。但事實上許多人私下對此表示擔憂。」
https://www.nytimes.com/2023/05/30/technology/ai-threat-warning.html
也許不久之後,像谷歌《Gemini》產生的偏見回答和幻覺將成為我們最不用擔心的問題。
AI先驅尤德科夫斯基(Eliezer Yudkowsky)也相信,由機器驅動的啟示錄只有幾年的時間。他說:「如果你逼我給出發生的概率,我感覺目前剩餘的時間看起來更像5年而不是50年。」

派翠西亞·哈利迪(PATRICIA HARRITY)2024年3月9日
《AI情緒追蹤:員工害怕被監視與誤解》
我們聽過哈拉利(Yuval Noah Harari)的警告,即如果我們不找出如何監管AI,人類的大腦很快就會被駭客攻擊,這句話可以說是對人類對AI的最大恐懼的一種表達。
當聽到WEF施瓦布的顧問哈拉利說「駭客人類就是比被駭者更了解被駭者自己」,這尤其如此,使得擁有技術的人可越來越多地操控我們。
我們可能認為這種對自己隱私的極端威脅會在未來某個時候發生,但是,哈拉利所形容的駭客行為更多地是比喻性的而不是字面上的,而且已經在像非死不可和油管這樣的環境中發生,在此間,我們被引導去觀看算法認為感興趣的內容。現在看來,許多人已逐漸對這種「駭客」和操控變得麻木,這使得它得以增加而不會引起太多抗議。
密歇根大學信息助理教授娜扎妮蒽(Nazanin Andalibi)問道,但是,如果工作場所跟蹤你的感受,你會感覺如何?在下面的文章中,她討論了情感AI,這已在工作場所中使用。
情感AI利用生物信號如語音音調、面部表情以及可穿戴設備等的數據,以及文字和人如何使用其電腦的方式,承諾檢測和預測某人的情感狀態。它被應用於日常生活中的各種情境,如娛樂以及高風險的情境,如工作場所、招聘和醫療保健等。
已有各種各樣的行業在使用情感AI,包括呼叫中心、金融、銀行、護理和照顧行業。
在美國,超過50%的大型雇主使用情感AI,旨在推斷員工的內部狀態,這種做法在大流行期間增加了。例如,呼叫中心監控其操作員的說話內容和語調。
學者對情感AI的科學有效性和其依賴於有爭議的情感理論提出擔憂。他們還強調情感AI侵犯隱私、表現出種族、性別和殘疾偏見的潛力。
一些雇主把這項技術當作完美,而一些學者則努力減少其偏見並提高其有效性,或者完全否定它,或者建議禁止情感AI,至少在更多了解其影響之前。
我研究技術的社會影響。認為對於受到情感AI影響的如員工等,尤其是因種族、性別或殘疾而受到邊緣化的人士,檢視情感AI對他們的影響至關重要。AI能夠真正讀懂你的情感嗎?不完全是。
員工的擔憂
為了了解工作場所中情感AI的應用方向,我的同事博伊德(Karen Boyd)和我着手研究發明者對工作場所情感AI的構想。分析了提出了用於工作場所的情感AI技術的專利申請。專利申請人聲稱的潛在好處包括評估和支持員工福祉、確保工作場所安全、提高生產力以及幫助做出決策,如升職、解雇員工和分配任務。
我們想知道員工對這些技術的看法。他們是否也會認為這些好處呢?例如,員工是否認為雇主為他們提供福祉支持是有益的?
我們的合作者克爾維特、李奧米奇、羅森伯格(Shanley Corvite、Kat Roemmich、Tillie Ilana Rosenberg)和我進行了一項調查,部份代表美國人口,部份過度抽樣考慮了有色人種、跨性別和非二元性別人士以及患有精神疾病的人群。這些群體可能更容易受到情感AI的傷害。
研究包括了來自代表性樣本的289名和來自過度抽樣的106名參與者。我們發現,32%的受訪者報告稱,他們在工作場所使用情感AI(無論是現有的還是預期的)時,沒有受益或預期不會受益。
雖然一些員工指出情感AI在工作場所使用的潛在好處,如增加福祉支持和工作場所安全,與專利申請中所聲稱的好處相呼應,但所有人也都表達了擔憂。擔心會對他們的福祉和隱私造成傷害,擔心會對工作表現和就業狀態造成傷害,以及對他們產生偏見和心理健康污名。
例如,51%的參與者對隱私表示擔憂,36%的人指出雇主可能會毫不猶豫地接受錯誤的推斷,33%的人擔心情感AI生成的推斷可能被用來做出不公正的就業決策。
參與者的聲音
一名患有多種健康狀況的參與者表示:「意識到自己被分析將諷刺地對我的心理健康產生負面影響。」 這意味着,儘管情感AI聲稱在工作場所推斷和改善員工的福祉目標,但其使用可能導致相反的效果:由於隱私損失,福祉受損。 實際上,我和同事及其他工作表明,情感AI引起的隱私損失可能涵蓋一系列隱私損害,包括心理、自主權、經濟、人際關係、身體和歧視。
關於情感監控可能危及他們的工作的擔憂,一名被診斷患有心理健康問題的參與者表示:「他們可能會認為我在工作上不再合適並解雇我。認為我不夠能力,不給加薪,或認為我做得不夠。」
研究中的參與者還提到了權力失衡加劇的可能性,並表示擔心如果情感AI被整合到工作場所中,與雇主之間的關係將會如何,指出情感AI的使用可能會加劇雇主與員工關係中已存在的緊張關係。
例如,一名參與者表示:「雇主對員工擁有的控制權之多,表明對這些信息的使用將很難進行審查。在這種情況下,員工的任何「同意」在很大程度上都是虛幻的。」情感AI只是公司監控員工的其中一種方式。
最後,參與者指出了潛在的危害,例如情感AI的技術不準確可能會對員工產生錯誤印象,情感AI可能會對員工產生和延續偏見和污名。在描述這些擔憂時,參與者強調他們擔心雇主依賴不準確和帶有偏見的情感AI系統,特別是針對有色人種、女性和跨性別個體。
例如,一名參與者表示:「是誰在決定什麼表情『看起來暴力』,以及如何僅僅從人的表情就判斷他們是威脅?系統可以讀取面部,但不能讀取心思。我只是無法想像這實際上可能對工作場所的少數族裔造成除了破壞之外的任何影響。」
參與者指出,他們要麼拒絕在使用情感AI的地方工作;這對許多人來說並不是可選的選項,要麼採取行為來使情感AI對他們有利地解讀,以保護他們的隱私。
一名參與者表示:「即使是在辦公室獨處時,我也會花大量精力掩飾自己,這會使我分心且無效率,」指出情感AI的使用將給員工增加額外的情感勞動。
值得嗎?
這些發現表明,儘管支持者聲稱情感AI有助於解決這些問題,但情感AI加劇了員工在工作場所中面臨的現有挑戰。
如果情感AI確實像它聲稱的那樣發揮作用,並且即使將來解決了偏見問題,員工仍會遇到一些危害,如額外的情感勞動和隱私損失。
如果這些技術不能量度它聲稱的內容或者存在偏見,那麼人就得隨機應變,受到認為是有效和可靠的算法的支配,而事實上它並不是。員工仍需要付出努力來減少被算法誤讀的機會,或者進行能讓算法有利地解讀的情感表達。
無論哪種方式,這些系統都像監獄般的技術一樣運作,造成隱私損害和被監視的感覺。
( 不分類不分類 )
回應 推薦文章 列印 加入我的文摘
上一篇 回創作列表 下一篇

引用
引用網址:https://classic-blog.udn.com/article/trackback.jsp?uid=17ab68df&aid=180453058