PG新聞
News
當前醫(yī)療行業(yè)面臨勞動力短缺問題,AI 應用雖有潛力,但存在數據隱私、算法偏見等風險。研究人員開展醫(yī)療企業(yè) AI 治理在風險緩解框架中作用的研究,提出強化治理框架的措施。這有助于保障 AI 安全、公平應用,推動醫(yī)療行業(yè)發(fā)展。
在醫(yī)療行業(yè),一場看不見硝煙的 “戰(zhàn)爭” 正悄然打響。隨著人們對健康需求的不斷攀升,醫(yī)療資源緊張的問題愈發(fā)凸顯,尤其是醫(yī)護人員短缺,就像戰(zhàn)場上兵力不足,讓整個醫(yī)療體系面臨巨大壓力。比如,美國醫(yī)院協(xié)會預計到 2033 年,醫(yī)生短缺將高達 124,000 人,每年還得招募至少 200,000 名護士才能勉強跟上需求增長。在這樣的困境下,人工智能(AI)如同一位 “救星” 出現在人們視野中,它能自動化處理行政事務、助力精準診斷、實現個性化醫(yī)療,仿佛給醫(yī)療體系注入了一針 “強心劑”。
可這 “救星” 也藏著不少隱患。AI 應用在醫(yī)療領域時,數據隱私泄露、算法存在偏見、模型缺乏可解釋性,以及可能出現的 “幻覺” 等問題接踵而至,就像隱藏在暗處的 “敵人”,隨時可能給患者安全帶來威脅。在這種情況下,為了讓 AI 更好地服務醫(yī)療,來自美國 ALIGNMT AI Inc 的 Andreea Bodnari 和 Healthcare Financial Management Association(HFMA)的 John Travis 等研究人員展開了深入研究。他們聚焦于治理框架在醫(yī)療組織 AI 應用中緩解風險和建立信任的作用,相關研究成果發(fā)表在《npj Digital Medicine》上。
這項研究并沒有采用復PG電子網站雜的實驗技術,主要是通過綜合分析現有文獻資料、梳理聯邦和州的相關法規(guī)政策,以及參考行業(yè)內的專業(yè)經驗來開展研究。研究人員從多個角度深入剖析 AI 在醫(yī)療領域的應用情況,從而得出相應結論。
AI 早已在醫(yī)療領域 “大展身手”,從早期基于專家規(guī)則的系統(tǒng),到如今先進的生成式 AI 和機器學習工具,它們廣泛應用于臨床診斷、治療規(guī)劃、患者分流、預約安排等各個環(huán)節(jié)。例如,Mayo Clinic 與谷歌云合作利用生成式 AI 改善臨床文檔記錄和患者溝通;Elevance Health 開發(fā)自己的生成式 AI 工具優(yōu)化會員服務和理賠流程;Optum 利用大語言模型自動化處方審批和總結患者數據。但隨著 AI 的廣泛應用,治理的重要性也日益凸顯。從醫(yī)療技術發(fā)展歷程來看,像電子健康記錄、醫(yī)療設備等技術的應用,都伴隨著相應治理框架的出現,以保障患者安全和數據安全。如今,AI 治理同樣成為醫(yī)療行業(yè)的關鍵任務,它涵蓋從 AI 系統(tǒng)設計、開發(fā)到使用的全過程,旨在確保 AI 應用的安全性和可靠性。
在醫(yī)療 AI 應用中,數據質量問題猶如一顆 “定時炸彈”。AI 模型高度依賴訓練數據,若數據存在缺陷,預測和建議就會出錯。比如,基于兒科數據訓練的 AI 系統(tǒng)用于更廣泛患者群體時,容易導致誤診或不當治療建議。算法偏見也是一大 “頑疾”,即使使用高質量數據訓練,AI 系統(tǒng)仍可能因訓練數據反映的系統(tǒng)性不平等而強化現有醫(yī)療差距。像風險評估工具可能因數據偏見高估特定種族群體患病概率,進而引發(fā)錯誤治療決策。此外,復雜 AI 模型的可解釋性差,就像一個 “黑匣子”,醫(yī)生難以理解其決策過程,這嚴重阻礙了 AI 在醫(yī)療領域的推廣應用。最后,AI 系統(tǒng)在醫(yī)療工作流程中的實施風險也不容小覷,若規(guī)劃和監(jiān)督不足,數據質量和可用性問題會影響其性能,還可能導致醫(yī)生誤用或過度依賴 AI 工具,危及患者護理質量。
為應對上述風險,研究人員提出強化現有治理框架的一系列措施。在確保 AI 適用性方面,治理框架應要求在采用 AI 解決方案前,對問題進行全面評估,明確 AI 的適用性,避免盲目投資。在數據治理上,醫(yī)療企業(yè)要完善數據治理政策,保證 AI 系統(tǒng)使用數據的質量,同時防范生成式 AI 帶來的數據中毒風險。對于透明度和技術披露,企業(yè)應詳細記錄 AI 模型開發(fā)過程,并進行內部驗證,還要成立跨職能治理委員會全程監(jiān)督。在合規(guī)報告方面,集中整合合規(guī)報告能提高監(jiān)督效率,確保企業(yè)合規(guī)運營。而在實施監(jiān)督上,持續(xù)監(jiān)測和部署后審計 AI 系統(tǒng),制定使用協(xié)議防止過度依賴 AI,通過跟蹤關鍵績效指標(KPIs)及時發(fā)現模型問題,必要時進行人工審查。
生成式 AI 和大語言模型(LLMs)為醫(yī)療行業(yè)帶來新機遇的同時,也帶來了諸多風險,如事實不準確、社會偏見等。對此,研究人員提出了針對性的風險管理策略。紅隊測試是重要手段之一,通過模擬對抗環(huán)境,檢測 AI 模型的潛在漏洞、偏差輸出和不準確之處,確保其安全性和公平性。持續(xù)的倫理審查也必不可少,多學科利益相關者共同參與,形成反饋循環(huán),保障 AI 應用符合醫(yī)療價值觀和以患者為中心的理念。此外,自適應模型訓練和微調能夠根據新發(fā)現的風險和社會期望的變化,調整訓練數據和算法設計,推動生成式 AI 朝著更公平的醫(yī)療成果方向發(fā)展。
研究表明,通過強化 AI 治理框架,醫(yī)療企業(yè)能夠有效管理 AI 技術帶來的風險,為安全、有效、符合倫理的 AI 應用奠定基礎。這不僅能提升患者護理質量,還將推動醫(yī)療行業(yè)的創(chuàng)新發(fā)展,重塑醫(yī)療行業(yè)的未來。同時,研究人員強調 AI 治理委員會應在 AI 應用審查和監(jiān)測中發(fā)揮核心作用,確保 AI 系統(tǒng)符合安全、有效和倫理標準。這項研究為醫(yī)療領域 AI 的合理應用提供了重要的理論和實踐指導,讓 AI 這把 “雙刃劍” 在醫(yī)療戰(zhàn)場上成為真正的 “利器”,而非 “兇器”,助力醫(yī)療行業(yè)在數字化時代實現更好的發(fā)展,為全球患者帶來更優(yōu)質的醫(yī)療服務。