OpenAI 在準確性疑慮中推廣 ChatGPT 用於健康決策
Terrill Dicki 2026年3月5日 01:21
OpenAI 強調一個家庭使用 ChatGPT 協助癌症治療決策,但近期研究顯示 AI 健康工具存在重大準確性和安全問題。
OpenAI 本週發布了一項案例研究,介紹一個家庭如何使用 ChatGPT 為兒子的癌症治療決策做準備,將這款 AI 聊天機器人定位為醫生指導的輔助工具。考慮到越來越多證據顯示 AI 健康工具存在重大可靠性問題,此時機令人關注。
這篇於3月4日發布的宣傳文章描述了父母如何在孩子的腫瘤團隊協助下運用 ChatGPT。OpenAI 將此定義為負責任的 AI 使用——補充而非取代醫療專業知識。
但這個美好的敘述與令人不安的研究結果產生衝突。發表在《自然醫學》期刊上的一項研究檢視了 OpenAI 自家的「ChatGPT Health」產品,發現在準確性、安全協議和醫療建議中的種族偏見方面存在重大問題。對於一個可能被用於做出攸關生死的癌症治療決策的工具來說,這絕非小問題。
準確性問題
獨立研究充其量只呈現出好壞參半的結果。Mass General Brigham 的研究發現 ChatGPT 在各醫療專科中達到約72%的準確率,在最終診斷方面提升到77%。聽起來還不錯,直到你考慮到風險所在——你會登上一架飛行員有23%機率犯下重大錯誤的飛機嗎?
醫療 AI 公司 Atropos 提供了更嚴峻的數據:通用型大型語言模型為醫生提供臨床相關資訊的比例僅為2%至10%。「有時有幫助」與「足夠可靠以做出癌症決策」之間的差距依然巨大。
美國醫學會的態度相當明確。該組織建議醫生不要使用基於大型語言模型的工具來協助臨床決策,理由是準確性疑慮以及缺乏標準化指引。當美國醫學會告訴醫生避免使用時,患者可能也應該注意。
ChatGPT 無法做到的事
AI 聊天機器人無法進行身體檢查。它們無法解讀患者的肢體語言,也無法提出經驗豐富的腫瘤科醫生經過數十年累積的直覺性後續問題。它們會產生幻覺——生成聽起來很有信心但完全虛構的資訊。
隱私疑慮增加了另一層風險。每個症狀、每個恐懼、每個關於孩子癌症的細節輸入到 ChatGPT 後,都會成為使用者控制權有限的數據。
OpenAI 的案例研究強調該家庭「在醫生的專業指導下」合作。這個限定條件很重要。危險之處不在於知情患者提出更好的問題——而是處於危機中的脆弱人群可能過度依賴一個出錯頻率比行銷宣傳暗示的更高的工具。
對於關注 OpenAI 企業野心的加密貨幣投資者來說,醫療領域的推進標誌著向高風險垂直領域的積極擴張。監管機構是否會容忍 AI 公司推廣存在準確性問題記錄的醫療決策工具,在邁入2026年之際仍是一個懸而未決的問題。
圖片來源:Shutterstock- openai
- chatgpt
- ai healthcare
- medical ai
- health tech



