字體:小 中 大 | |
|
|
2024/12/16 16:43:20瀏覽188|回應0|推薦0 | |
蘿薘·威爾遜(Rhoda Wilson)2024年12月12日
《亦幻似真:如何判斷是機器人亦或AI在社媒或文章的留言》
我們都曾見過一些評論者,當在社交媒體上或文章下留言時,似乎缺乏常識或者未能理解細微的差異,往往會導致令人沮喪的對話。
那麼,是否有可能使用自動化系統來生成假評論,無論是在社交媒體上還是網站上的文章下呢?答案是肯定的。而且這確實在發生。那麼,如何分辨自己是在與電腦程序還是與人類進行交流呢?
自動化的電腦程序在社交媒體上或文章下發表看似來自人類的評論,引發有關付費評論、假草根運動(Astroturfing)以及假意見在網絡上擴散的問題。這可能會讓人意識到「死網絡理論」的現實性,這是史密斯(Brandon Smith)在一篇最近的文章中提出的AI可能帶來的後果之一,而這是大多數人可能未曾考慮過的。
「死網絡理論」認為,絕大多數的網絡活動已被AI生成的內容所取代,這一理論正逐漸受到關注。這一觀點指出,曾是由人類創造和塑造的平台--網絡,現在已被自動化程序、包括機器人和AI所主導。
那麼,「死網絡理論」是否已開始成為現實?很可能已經開始了。
2019年,《Vice》報導指出,微軟開發了能在新聞文章下發表評論的機器人,名為《DeepCom》,是「Deep Commenter」(深度評論者)的縮寫,它被編程為「理解」文章內容,挑選出重要的要點,並根據這些要點以及文章標題撰寫評論。
據報導,DeepCom的創建者原本打算將其用於鼓勵人在文章下進行更多評論,以促使更多人閱讀文章並與內容互動。
2023年,Veronica Llorca-Smith在《Medium》上發表了一篇文章,表示注意到在她的文章下,AI生成的評論數量有所增加,這些評論通常篇幅較長、語氣正式,並且將文章的內容進行改述。
2023年5月,《The Conversation》指出,有充份證據顯示這些AI操控社交媒體,利用假信息來左右公眾輿論,而這種現象已持續多年。
那麼,如何辨別自己是在與機器人還是AI進行交流,無論是在社交媒體上還是互聯網上的文章下?我們在Brave搜索引擎中輸入了2個查詢,並生成下文中的AI摘要。對摘要進行了少量編輯,將文本轉換為英式英語。
正如Brave在其摘要末尾所警告的:「AI生成的回答。請核實關鍵事實。」本文的目的是強調由電腦程序而非人類發表的評論問題,並分享一些如何判斷自己是否與機器人互動的思考。因此,我們並未像建議的那樣核實關鍵事實,但在摘要下方列出相關的資料來源。
在進入AI生成的摘要之前,提供個人建議:大多數語言模型和AI系統,包括由OpenAI、谷歌和微軟等開發的系統,都是在大量美式英語文本數據集上進行訓練的。這是因為互聯網內容的很大一部份,包括網頁、文章和書籍,都是以美式英語撰寫的。
因此,這些模型傾向於學習美式英語的語言模式和細微差異。自動化的轉錄和在線翻譯工具也同樣如此;其英語翻譯通常會以美式英語呈現。
此外,根據個人經驗,AI生成的文本通常不會包含拼寫錯誤。所以,帶有拼寫錯誤或使用英式英語的評論,更可能是由人類撰寫的。
接下來是AI生成的摘要。
聊天機器人的限制
根據搜索結果,以下是一些聊天機器人難以回答的問題類型:
1)語法或語義不正確的上下文問題:聊天機器人主要依賴自然語言處理(NLP)和機器學習算法來理解用戶的問題。然而,對於語法、句法或語義不正確的問題,聊天機器人可能會難以理解,從而導致不準確或無關的回答。
2)需要外部知識的開放領域問題:聊天機器人可能無法接觸到全世界的知識,使得回答需要來自不同來源的資訊的開放領域問題變得具有挑戰性,例如新聞文章、研究論文或專家意見。
3)關於複雜和細緻主題的問題:對於像哲學、倫理學或抽象概念這類複雜且細緻的問題,由於它受限於其編程和訓練數據,聊天機器人可能難以提供準確的答案。
4)需要常識、直覺或創造力的問題:聊天機器人缺乏類似人類的常識、直覺和創造力,因此很難回答需要這些技能的問題,例如理解諷刺、幽默或成語。
5)依賴個人意見或偏見的問題:聊天機器人旨在提供客觀、基於事實的資訊。它可能難以回答需要個人意見、偏見或情感智慧的問題,因為這些是人類固有的特徵。
6)涉及假設情境或「如果」情況的問題:聊天機器人可能無法有效回答涉及假設情境或「如果」情況的問題,因為它是設計在特定領域或範圍內運行的。
7)需要推理、推斷或演繹的問題:聊天機器人可能難以回答需要複雜推理、推斷或演繹的問題,例如理解因果關係或在表面上無關的信息之間建立聯繫。
一些聊天機器人可能難以回答的具體問題範例包括:
~「生命的意義是什麼?」(需要哲學理解和細緻的詮釋)
~「AI會超越人類智慧嗎?」(需要複雜的推理和預測)
~「你能解釋量子力學對日常生活的影響嗎?」(需要特定領域的知識和理解)
~「你對當前政治狀況有何看法?」(需要個人意見和偏見)
請記住,聊天機器人不斷發展,AI和自然語言處理的進步可能會改善它在未來回答這類問題的能力。然而,目前而言,這些問題仍對聊天機器人來說是具挑戰性的,難以準確和有效地回答。
AI無法回答的問題
根據搜索結果,AI系統在回答以下類型的問題時會遇到困難:
1)主觀判斷:AI可根據數據和模式提供信息,但像個人意見、情感或價值觀等主觀問題對AI來說是具挑戰性的。
2)推理:AI在根據不完整或模棱兩可的信息進行推論或得出結論時會遇到困難。
3)語言的細微理解:AI可能難以識別人類交流中的微妙意涵、成語或比喻語言。
4)對多個領域的廣泛理解:AI在特定領域可能表現出色,但在整合來自多個領域的知識或將看似無關的概念聯繫起來時,可能會有困難。
5)開放性問題:AI可能難以回答需要創意思維、想像力或新穎解決方案的問題。
6)上下文理解:AI可能無法完全理解問題所處的上下文,導致不準確或不完整的回答。
7)非結構化數據:雖然AI可以處理結構化數據,但在分析和理解非結構化數據(如圖像、聲音或手寫文本)時可能會遇到困難。
8)推論和預測:AI可以基於模式預測結果,但它可能無法完全預見複雜事件的後果或做出需要深刻理解人類行為的決策。
9)常識:AI可能缺乏人類所習以為常的常識和現實經驗,這會使它在理解和回應日常情境時遇到困難。
10)需要人類直覺的問題:AI可以分析大量數據,但可能不具備與人類相同層次的直覺或本能,這使得它在回答高度依賴這些特質的問題時會有挑戰。
一些AI可能難以回答的具體問題範例如下:
~「如果你遇見特朗普,會問他一些什麼問題?」
~「你更愛誰,父母、配偶還是你的熊貓?」
~「我正考慮下週從廣州開車去東京。你覺得怎樣?」
~「AI能正確回答這個問題嗎:『Strawberry』中有多少個R?」
~「如果遇見習近平,你會做什麼?」
這些問題通常需要人類的理解、直覺和創造力,而這些是目前AI系統尚未掌握的技能。
資源:
▲5 Chatbot Questions You Must Be Ready For, Ubisend, 21 April 2017
https://blog.ubisend.com/optimise-chatbots/chatbot-questions-you-must-be-ready-for
▲Chapter 11: ChatBots to Question & Answer systems, Madhu Sanjeevi, 19 April 2018
https://medium.com/deep-math-machine-learning-ai/chapter-11-chatbots-to-question-answer-systems-e06c648ac22a
▲What chatbots can answer this type of simple question that only requires to keep track of the context? Stack Exchange, 18 July 2022
https://ai.stackexchange.com/questions/3075/what-chatbots-can-answer-this-type-of-simple-question-that-only-requires-to-keep
▲What single question can help differentiate a chat bot from a human? Quora, 8 September 2023
https://www.quora.com/What-single-question-can-help-differentiate-a-chat-bot-from-a-human
▲What questions are very hard to answer for a chatbot? Quora, 25 February 2024
https://www.quora.com/What-questions-are-very-hard-to-answer-for-a-chatbot
▲What’s a good question to “trip up” an AI bot trying to have a “conversation” with you? Some of them are very good with programmed answers to what I would consider tough challenge questions. I feel embarrassed when I realize I engaged one of them, Quora
https://www.quora.com/Whats-a-good-question-to-trip-up-an-AI-bot-trying-to-have-a-conversation-with-you-Some-of-them-are-very-good-with-programmed-answers-to-what-I-would-consider-tough-challenge-questions-I-feel-embarrassed-when-I
▲10 Questions That Reveal The Limits of AI, Forbes, 18 January 2017
https://www.forbes.com/sites/chunkamui/2017/01/17/limits-of-ai/
▲The questions artificial intelligence cannot answer, The Hill, 17 July 2023
https://thehill.com/opinion/congress-blog/4100908-the-qusetions-artificial-intelligence-cannot-answer/
▲15 things AI can (and can’t) do, News Channel 3, 30 November 2022
https://kesq.com/stacker-news/2022/11/30/15-things-ai-can-and-cant-do/
▲Here’s Why Many AI Chat Bots Can’t Answer ‘How Many R In Strawberry’ Question Correctly, NDTV, 29 August 2024
https://www.ndtvprofit.com/technology/heres-why-ai-chat-bots-cant-answer-how-many-r-in-strawberry-question-correctly
▲Are there any questions or queries which AI can’t answer? Quora, 18 August 2024
https://www.quora.com/Are-there-any-questions-or-queries-which-AI-cant-answer
|
|
( 不分類|不分類 ) |