字體:小 中 大 |
|
|
|
| 2025/08/22 03:17:36瀏覽521|回應2|推薦42 | |
|
AI又發揮它的想像力了。大家大概都聽過AI除了會解答問題,創造圖片之外,也會無中生有,創造出一些不存在的文獻。這個偽文獻問題,很令學術界頭痛。這篇林教授的文章【生飲橄欖油的十大好處?洪醫師的迷魂湯處方】,提到了洪醫師提出的十個文獻中,九個並不存在,都是假的,真是教人不知如何是好。AI幫人們省了不少時間精力,但在另一方面,製造假文獻的結果,人們要浪費時間精力去一一查證AI給的文獻,二者綜合,究竟是省多還是費多呢? 隨著時間前進,AI也進步了,能力變大變強了。如今不但能創造假文獻,連假的法律案件,也會發明。下面這段影片,講的是澳洲律師提交給法官的案例,竟然是假的,是AI發明的,實際並不存在。看來,頭痛圈已擴大到法律界了。
【AI翻譯】在澳洲,一位資深律師站在法官面前,不是為了辯論案件,而是要道歉。你一定想知道原因。 這場道歉的核心是引用虛假、不存在的判例,這些判例都由人工智慧生成。辯護律師瑞希·納特瓦尼(Rishi Natwani)擁有備受尊敬的「御用律師」(Kings Council)頭銜。他承擔了提交不正確資訊的全部責任,並告訴法官詹姆斯·艾略特(James Elliot),他深感抱歉和尷尬。 這個錯誤導致司法延遲了24小時。但儘管出現了這一失誤,其客戶最終因精神障礙而被判無罪,獲得了自由。然而,本案法官相當不滿這個偽判例事件。艾略特法官警告說,法院能否依賴律師提交的資訊至關重要。 這些虛假內容被艾略特的助理們發現,他們找不到引用的判例,遂要求辯護律師提供判例副本。律師們隨後證實,引用的判例確實不存在,更提交了內容虛構的引文。他們承認,他們只確認了最初的引文正確無誤,而錯誤地認為其他引文也是正確的。 在整個事件之後,法官指出,最高法院去年發布了關於法律工作者如何使用人工智慧的指導方針。他明確表示,除非獨立且徹底地驗證人工智慧的使用產物,否則不應使用人工智慧。此案再次將焦點拉回到人工智慧的使用界限和條件上。一位深受信任的律師,卻被一台製造虛構內容的機器所擊垮。 一個案件被延遲,一位法官感到震驚,整個法律界也因此收到了警示。然而這並非個案。 2023年,在美國也發生了類似事件,一名聯邦法官罰了兩名律師及其律師事務所處5,000美元,因為他們在一個航空事故索賠案中提交了由ChatGPT編造的虛假法律研究。同年晚些時候,在美國前總統川普(Donald Trump)的私人律師邁克爾·科恩(Michael Cohen)提交的法律文件中,又出現了更多由人工智慧編造的虛假法院裁決。科恩承擔了責任,稱他沒有意識到他用於法律研究的Google工具也可能產生所謂的「人工智慧幻覺」。 人們忽略的是,在追求正義的過程中,事實是神聖的。但這些事件證明,當虛假內容,即使是無意地潛入法庭時,法律與混亂之間的界線就會變得模糊。而其後果,人們只能想像。 |
|
| ( 時事評論|公共議題 ) |












