字體:小 中 大 | |
|
|
2024/04/29 21:29:37瀏覽271|回應0|推薦7 | |
編譯廖振堯/世界新聞網 密西根大學醫療資訊長Lance Owens博士示範如何在智慧型手機上使用人工智慧工具。(美聯社) OpenAI推出聊天機器人ChatGPT一年多後,已經應用在許多不同領域,甚至不少醫生也使用基於大型語言模型的產品,幫助回覆病患訊息或紀錄檢查及看診過程。支持者認為如此可以節省醫生時間、避免過勞,但也引發信任、透明度、隱私和人際互動關係等疑慮,美聯社便整理出下列須知事項。 •我的醫生在用AI嗎? 醫生使用此類工具前應徵求病患同意,否則可能難以辨別是否為AI代筆。有的系統會在訊息的最後自動附上「此訊息為自動產生」,但醫生或護士在發送前可以手動刪除該行。 丹佛一名70歲患者德特納(Tom Detner)最近便收到他醫生的訊息:「很高興聽到你的頸部疼痛正在改善。傾聽身體的聲音很重要。」並透露是自動生成、醫生編輯後送出的。德特納說這聽起來和醫生本人一模一樣,非常了不起,而他對透明度感到高興,充分披露非常重要。 •AI會出錯嗎? 大型語言模型可能會誤解輸入,甚至製造不準確的反應,也就是俗稱「幻覺」的現象。如紐約水牛城一名醫生跟她的癌症患者說「幸好妳未對磺胺類藥物過敏」,但AI卻記下「過敏:磺胺」;好的方面來說,醫生看診時可以不用一直輸入,能與患者眼神交流、觀察病徵。 有醫生指出,如果是常見情況如多休息、冰敷、患部加壓、腳踝扭傷等,AI工具非常好用;但如果是較新的資訊,像是一種新的RSV疫苗,可能就得多費心思訓練。 新工具聲稱有內部護欄,防止患者收到錯誤訊息或記入電子病歷。AI問診對話軟體Abridge的執行長Shiv Rao博士則說醫生終究是最重要的護欄,他們查看AI摘要時應檢查特定部分以確保準確性。 •隱私疑慮? 美國法律要求醫療系統必須獲得外部合作公司保護個人健康資訊的保證,否則可能面臨聯邦衛生與福利部(U.S. Health and Human Services)調查和罰款。但是病患與AI助手分享的任何資訊本身就會被用於AI學習,因此資料外洩風險仍然存在;不過使用這類工具的醫生皆表示相信資料安全性且不會被出售。 |
|
( 知識學習|健康 ) |