機器學習加實證醫學的AI智慧醫院 智慧應用 影音
新思
參數科技

機器學習加實證醫學的AI智慧醫院

  • DIGITIMES企劃

彰化基督教醫院主任許天成。
彰化基督教醫院主任許天成。

現今,機器學習形式的AI已大量運用在各行業,醫療照護也搭上這波風潮,彰化基督教醫院許天成主任以該院評估某電腦斷層(CT)的AI應用為例說明,醫院期望導入一個國外具有FDA認證針對肺部CT的AI系統,該系統宣稱肺結節偵測的速度提高26%,並能降低29%會錯失的偽陰性結節,但醫師實際測試的結果是,此軟體與CT儀器隨機CAD軟體比較起來,敏感度雖有提升,但影像處理時間較長且須另外付費,系統導入也須改變流程。除了彰基院內的案例,許天成也引用了某社群媒體群組內不同醫院多位醫師對AI質疑的對話,顯示出機器學習型的AI在醫療應用上並非完全無問題。

為何機器學習已然成為各行各業尋求數位轉型的一大顯學,但在急性醫療上卻還在摸索呢?許天成舉例,醫療影像判讀的應用來自於近年類神經網絡技術在影像視覺上的重大發展,日常生活的影像辨識已建立大量的公開影像庫,像是ImageNet,但醫學影像卻難以大量取得,然而機器學習就是需要大量資料進行學習的一種方法論,因此在數據面而言就相對不足。

機器學習應用在自然語言處理也有重大的發展,但在醫學上由於每位醫師學習養成的過程不同,病歷書寫的風格也不同,機器學習要讀取不同風格的病歷,還得要逐一訓練,雖然不是做不到,但卻是一項瑣碎而不易執行的工作。

另外,目前各國審查醫療器材認證,送審時的參數是不能再變更的,例如美國的FDA和台灣的TFDA,機器學習AI產品如果要送審認證就不能再更改參數,這也違背機器學習的基本運作原理,因此認證制度也需要調整才能跟上這波機器學習的需求。

根據MIT某線上講程指出,當前深度學習(Deep Learning)有不少限制,包括:需要大量資料、需要大量的計算能量、很容易被對抗例(Adversarial Example)愚弄、會受演算法的偏差影響、拙於表達不確定性、是無法解譯的黑盒子,讓人難以信任,以及常常需要專家知識去設計並微調架構等等。深度學習的不具泛化性(Generalization),以及不可解釋性(Interpretability)是醫療應用上的兩大顧忌。

許天成歸納了兩大觀察,首先他發現幾個趨勢與現象,包括:基於機器學習的AI有機會逐漸成熟;醫院會自研或與產業合作;這是一個降低醫療不確定性之戰,意思是人和機器學習之間的取捨,人在醫療判斷上有不確定性,經驗豐富的醫師準確性比較高,資歷較淺的醫師或許比較沒那麼好,機器學習也有不確定性,只是機器學習的一致性可能比較佳,但如何互補降低整體醫療錯誤、同時又能融入到臨床診治的實際運作、不干擾臨床人員,將會是一個顛覆傳統醫療的挑戰。

此外,尚有:取得認證不易;臨床機器學習將普及商業化;買儀器送AI,醫療儀器為了提高競爭力勢必會將AI整合在產品內,特別是影像相關的儀器,內建的AI可以針對影像成像特性進行最佳化,降低第三方AI軟體需要,解決不同儀器成像偏差的問題。

第二個觀察則是未來應用在醫院的智慧醫療應該是多重技術的整合,包含實證醫學的決策支援,但現階段而言醫療科技是輔助的角色,不像工業界的大量自動化智慧製造,醫療最終的決策還是在臨床人員。

由於臨床治療流程非常複雜,機器學習仍有不具泛化性(Generalization)以及不可解釋性(Interpretability)的問題,目前機器學習也不一定全然會提高效率,相較之下實證醫學的確定性比較高,透過人主機輔的人機協作,可以提高病人安全並避免醫療糾紛,基於AI的智慧醫院也應重視以實證醫學為基礎的電腦臨床決策輔助。