醫(yī)院是ChatGPT“禁區(qū)”?若醫(yī)生問診時“求助”AI,患者能接受嗎? 滾動
如果給你開診斷書的不是醫(yī)生,而是AI,你會接受嗎?
就在人們熱議以ChatGPT為代表的生成式AI將如何取代人們的工作時,大家發(fā)現(xiàn),醫(yī)院,似乎成了這類人工智能產(chǎn)品的一個“禁區(qū)”。
生成式AI可能掌握比單個醫(yī)生更多的信息,從而有更多的“經(jīng)驗”,但是,醫(yī)生的決定往往事關(guān)道德,AI很難從道德角度來做決定。
(資料圖片僅供參考)
也有醫(yī)生贊成在醫(yī)院中使用AI技術(shù)的。斯坦福大學醫(yī)學院教授、曾任擁有超過1200萬患者的美國醫(yī)療集團Kaiser Permanente首席執(zhí)行官的Robert Pearl說:
我認為AI對醫(yī)生來說將比過去的聽診器更重要。任何醫(yī)生都不該把ChatGPT或其他形式的生成式AI拒之門外。
Pearl認為,ChatGPT可以幫助醫(yī)生來撰寫患者的臨床報告、診斷書,甚至在和患者交流遇到困難時向醫(yī)生提供建議。在他看來,生成式AI對醫(yī)學發(fā)展來說是好事。
醫(yī)學專業(yè)人士希望生成式AI的語言模型可以挖掘數(shù)字診療檔案中的有用信息,或者為患者提供簡潔明了的專業(yè)解釋,但也有人擔心這些技術(shù)會蒙蔽醫(yī)生的雙眼或提供不準確的回應,從而導致錯誤的診斷或治療計劃。
開發(fā)AI技術(shù)的公司已制定了雄心勃勃的進駐醫(yī)療行業(yè)的計劃。去年,微軟研究院推出了BioGPT,這是一種在一系列醫(yī)療任務上取得高分的語言模型,OpenAI、馬薩諸塞州總醫(yī)院和AnsibleHealth共同完成的一篇論文聲稱,ChatGPT可以通過美國執(zhí)業(yè)醫(yī)師執(zhí)照考試,分數(shù)超過及格線60分。幾周后,谷歌和旗下的DeepMind的研究人員推出了Med-PaLM,它在同一考試中達到了67%的準確率——這一結(jié)果雖然振奮,但谷歌當時表示,“仍然不如臨床醫(yī)生”。微軟和全球最大的醫(yī)療保健軟件供應商之一Epic Systems宣布計劃使用支持OpenAI的GPT-4來搜索電子診療檔案。
研究AI對醫(yī)療保健影響的哈佛大學公共衛(wèi)生講師Heather Mattie認為,人們需要破除對AI的迷信,即必須認識到AI不可能是100%正確的,并且可能會產(chǎn)生有偏見的結(jié)果。她認為,如果有這樣的認識,AI將成為醫(yī)生們很好的助手。
她尤其擔憂的是,AI在心腦血管疾病和重癥監(jiān)護方面是否會給出錯誤答案,對其他臨床領(lǐng)域直接應用AI,她也表示擔心,因為有時候AI會捏造事實,并且不清楚它所借鑒的信息是否已經(jīng)過時。因此她認為,如果醫(yī)生對AI生成的答案不進行事實核查和鑒別,則很有可能出現(xiàn)誤診。
此外,一些倫理學家擔心,當醫(yī)生遇到艱難的道德決定時,比如手術(shù)是否能夠提高患者的存活率和存活時間,AI未必給出符合倫理的答案。
英國愛丁堡大學技術(shù)道德未來中心的倫理學家Jamie Webb說:
醫(yī)生不能將這種程序外包或自動化給生成式AI模型。
去年,Webb參與的一個團隊得出結(jié)論,AI系統(tǒng)很難可靠地平衡不同的道德原則,如果醫(yī)生和其他工作人員過度依賴機器人而不是自己思考棘手的決定,他們可能會遭受“道德去技能化” .
醫(yī)生們之前曾被告知,AI將徹底改變他們的工作,結(jié)果卻大失所望。
今年2月,在哈佛大學舉行的一次關(guān)于AI在醫(yī)學領(lǐng)域的潛力的討論會上,初級保健醫(yī)生Trishan Panch回憶說,當時正是ChatGPT火熱之際,他在社交媒體上看到了一份由ChatGPT撰寫的診斷書。Panch回憶說,當時興奮的臨床醫(yī)生很快在會議上承諾在他們自己的實踐中使用該技術(shù),但在使用ChatGPT到第20次左右時,另一位醫(yī)生插話說,該模型生成的所有參考資料都是假的。
盡管AI有時會犯明顯的錯誤,但Robert Pearl仍然非常看好ChatGPT等生成式AI。他認為,在未來的幾年里,醫(yī)療保健領(lǐng)域的AI語言模型將變得更像iPhone,充滿了可以增強醫(yī)生能力和幫助患者管理慢性病的功能。他甚至認為,ChatGPT這樣的AI可以幫助減少美國每年因醫(yī)療錯誤導致的超過25萬例死亡。
Pearl確實認為有些事情是AI的禁區(qū)。他說,幫助人們應對悲傷和失落的情緒、與家人進行臨終對話,以及一些高風險的診療手段不應該將AI牽扯其中,因為每個病人的需求都不一樣:
那些是人與人之間的對話。
他將ChatGPT比作一名醫(yī)學生:能夠為患者提供護理并參與其中,但它所做的一切都必須由主治醫(yī)師審查。
風險提示及免責條款 市場有風險,投資需謹慎。本文不構(gòu)成個人投資建議,也未考慮到個別用戶特殊的投資目標、財務狀況或需要。用戶應考慮本文中的任何意見、觀點或結(jié)論是否符合其特定狀況。據(jù)此投資,責任自負。關(guān)鍵詞: