AI自诊风险不容忽视

AI资讯3天前发布 ainav
2 0

5月6日訊息,在醫療資源緊張、等待時間長、成本不斷攀升的背景下,越來越多的人開始借助像ChatGPT這樣的 artificial intelligence 聊天機器人來進行醫療自診。據一項最新調查顯示,大約六分之一的美國成年人每月至少會使用一次聊天機器人來获取健康建議。

然而,對chatbot的過度信任可能帶來風險。最近一项由牛津大學主導的研究指出,人們在向chatbot提供信息時,往往難以提供能夠獲得最佳健康建議的关键信息。研究發現,在醫療場景中,参与者使用聊天機器人時未能准確识别潛在健康問題,並且低估了這些問題的嚴重性。

為了解這些挑戰,研究人員招募了約1300名英國參與者,並讓他們在醫生編寫的醫療場景中進行測試。参与者需要使用聊天機器人或傳統方法(如網絡搜索或自我判斷)來確定可能的行動方案。

研究結果表明,即使使用像GPT-4、Cohere’s Command R+和Meta的Llama 3這樣的先進AI模型,chatbot也無法有效幫助用戶准確识别健康問題,反而讓參與者更傾向於低估這些問題的嚴重性。

研究人員進一步指出,在與chatbot互動時,参与者經常會忽略關鍵細節,或者收到含糊不清的回答。這些局限性凸顯了目前AI工具在醫療領域應用中的不足。

值得關注的是,科技公司正在積極探索AI在健康領域的更多可能性。例如:

  • 苹果正在開發一款能夠提供運動、飲食和睡眠建議的人工智能工具
  • 亚马逊正在研究利用AI分析醫療數據庫中的”健康社會決定因素”
  • 微軟則在協助構建人工智能,用於分類患者發送给護理提供者的訊息

然而,無論是專業人士還是患者,對AI是否已經準備好應對高風險的健康應用仍存在爭議。美國醫師協會建議醫生不要使用ChatGPT等聊天機器人來協助臨床決策,而包括OpenAI在內的主要人工智能公司也警告稱,不應該基於chatbot的輸出來進行診斷。

研究人員強調,在做出醫療決策時,應該依賴可信的信息來源。就像新藥物需要經過臨床試驗一樣,_deploying聊天機器人系統之前,應該先在現實世界中進行測試。

© 版权声明

相关文章