文章重點
- OpenAI正式推出ChatGPT Health,提供增強的健康諮詢功能
- 每週數億人使用ChatGPT諮詢健康問題
- AI診斷在某些領域準確率達94%,超越人類醫師
- 專家警告AI醫療建議存在風險,需要謹慎使用
ChatGPT Health正式上線
OpenAI在2026年1月正式推出ChatGPT Health,這是一個專門設計用於健康諮詢的增強版ChatGPT。新功能包括更安全的醫療記錄共享、與健康應用的整合,以及更謹慎的醫療建議生成。
驚人的使用量
根據OpenAI披露的數據,每週有數億人使用ChatGPT諮詢健康相關問題。這個數字反映了幾個趨勢:
- 全球醫療資源不足,很多人難以獲得及時的醫療諮詢
- 對AI便利性的依賴日益增加
- 年輕一代更願意嘗試數位健康工具
AI診斷的表現
多項研究顯示,AI在某些診斷任務上表現出色:
放射學
AI系統在肺結節檢測上達到94%準確率,顯著超越人類放射科醫師的65%。目前FDA已批准近400個AI放射學演算法。
初級診斷
研究顯示,AI在識別「關鍵紅旗」症狀方面表現略優於人類醫師,能更好地根據臨床指南推薦治療方案。
皮膚科
AI在識別皮膚癌方面已達到專科醫師水平,可用於初步篩查。
真實案例
NPR報導了多個患者通過AI獲得診斷的案例:
一位患者在經過多位醫師診斷未果後,將症狀輸入ChatGPT,AI建議他檢查一種罕見疾病,最終確診。患者表示「ChatGPT救了我的命」。
風險與擔憂
專家警告AI醫療建議存在嚴重風險:
幻覺問題:AI可能生成看似合理但完全錯誤的醫療建議。有案例顯示AI建議患者使用無效甚至有害的治療方法。
延誤治療:患者可能過度依賴AI而延誤就醫,錯過最佳治療時機。
隱私問題:健康數據極為敏感,用戶可能不了解自己的對話如何被使用。
新的醫療模式
一些醫療機構正在探索AI增強的診療模式:
MGB的Care Connect使用AI預先分析患者症狀,為醫師生成診斷建議和治療計劃。12位遠程醫師與AI協作,提供24/7服務。
監管挑戰
AI醫療的監管面臨挑戰:
- 現有法規並非針對AI設計
- 責任歸屬不明確
- 跨境使用難以監管
- 需要平衡創新與安全
結語
ChatGPT Health的推出標誌著AI醫療諮詢進入主流。這既帶來了改善全球醫療可及性的機遇,也帶來了需要謹慎管理的風險。關鍵在於如何建立合適的使用規範和安全保障。