<p id="6ol9a"><cite id="6ol9a"><wbr id="6ol9a"></wbr></cite></p>
    <output id="6ol9a"><strong id="6ol9a"><small id="6ol9a"></small></strong></output>
  • EnglishRSSApp/Android客戶端iPad客戶端Kindle版手機版天貓旗艦店

    醫療行業采用AI需要克服哪些障礙

    作者: 2020-01-20 11:04:09 0

    包括機器學習在內的人工智能為健康科學及生命科學領域的變革帶來了令人振奮的契機,為更加快速、準確的臨床決策及研發能力的增強提供了誘人的前景。然而,有關法規和臨床意義的開放性問題依然存在,致使技術開發人員和潛在的投資者都在努力尋求如何克服當前在采用、合規和實施方面的障礙。

    以下是需要考慮的主要障礙以及應對的辦法:

    制定規章制度。在過去幾年里,美國食品和藥品管理局(Food and DrugAdministration ,簡稱FDA)一直在逐步更新其規章制度,以跟上快速發展的健康市場。2017年,FDA發布了它的《數字健康創新行動計劃》(Digital Health Innovation Action Plan),明確了該機構在推進安全有效的數字健康技術以及處置《21世紀治療法》(21st Century Cures Act)的關鍵條款方面扮演的角色。

    FDA還在其數字健康軟件預認證(Pre-Cert)試點項目中招募了作為醫療設備軟件(SaMD)的精英開發人員。預認證試點的目的是幫助FDA確定產品預認證所需要的主要度量標準和性能指標,同時也找到更便于開發人員通過審批程序以及幫助推進醫療保健創新的途徑。

    最近,FDA在9月發布了它的《設備軟件功能和移動醫療應用政策》(Policy for Device Software Functions and Mobile MedicalApplications)——一系列指導性文件,里面描述了該機構如何規范有助于臨床決策支持(CDS)的軟件,包括使用機器學習式算法的軟件。

    在FDA的一份相關聲明中,第一副局長埃米·阿伯內西(Amy Abernethy)解釋道,該局計劃將監管重點放在“高風險的軟件功能”上,比如那些用于更嚴重或更危急的健康狀況的功能。這還包括使用機器學習式算法的軟件,用戶在未獲得進一步解釋的情況下可能不容易理解那種程序的“邏輯和輸入”。

    CDS軟件將歸于FDA的“高風險”監管類別的一個例子是,某軟件可以識別出病人具有出現潛在嚴重醫學狀況的風險——比如術后的心血管事件——但卻無法解釋該軟件為何會做出這種識別。

    獲得FDA批準。為了順應FDA不斷變化的監管和審批程序,軟件開發者必須認真思考如何最好地設計和推出他們的產品,使其能夠通過FDA的審批,尤其是在軟件屬于該局的“高風險”類別時。

    必須考慮的一個因素是,人工智能驅動的治療或診斷工具生性都會繼續發展。比如,期待一種軟件產品隨時間升級和變化是合乎情理的(比如,安全更新、增加新特性或功能、升級算法等)。可是鑒于該產品已經發生了技術上的改變,每次升級或更新版本之后,它的FDA批準狀態可能會面臨風險。

    在這種情況下,計劃采用基于版本的方法來應對FDA的審批程序或許才符合開發人員的最大利益。在這種方法中,每當軟件內部的ML算法得到一組新數據的訓練時,新版本的軟件就會創建,而每一個新版本都要經過FDA的單獨審批。

    雖然繁瑣,但是這種方法避免了讓FDA擔心自己批準的軟件產品在得到批準后功能又發生改變。這種戰略發展考慮對于解決方案提供商來說至關重要。

    同樣,投資者也必須清楚了解一家企業的產品開發計劃和持續獲得FDA批準的預定方法,因為這可以帶來與同行業其他競爭者的明顯差別。臨床醫生會被緊逼著采用尚未得到FDA認證的技術,所以投資者需要確定,他們考慮支持的公司擁有明確的產品開發路線圖——包括在軟件產品本身及監管指導方針不斷發展的情況下獲得FDA批準的方法。

    人工智能是一個黑箱。除了當前監管上的含混不清之外,另一個對在臨床環境中采用人工智能應用帶來挑戰的關鍵問題,是它們的黑箱性質以及由此引起的信任問題。

    挑戰之一是跟蹤:如果發生了負面的結果,人工智能應用的決策過程能否得到跟蹤和評估——比如,用戶是否可以識別導致人工智能應用采取某個具體行動的訓練數據以及/或者機器學習(ML)范式?簡單一點來說,負面結果的根本原因是否能夠在技術范圍內找到,以便未來可以得到預防?

    從重新分類訓練數據到重新設計學習訓練數據的ML算法,發現過程十分復雜——甚至可能導致該應用在市場中被移除。

    對于人工智能系統的黑箱性質產生的另一個擔憂是,有人可能故意或者錯誤地向系統輸入不正確的數據,從而導致錯誤的結論(比如,誤診、不正確的治療建議)。幸運的是,設計用來識別篡改或不正確輸入的檢測算法即便不能消除風險,那也可以減少這種風險。

    人工智能的黑箱性質帶來的更大挑戰是,醫生不愿意相信(部分原因是醫療事故責任風險)——進而采用——他們不能完全理解的東西。比如,現在出現了許多人工智能影像診斷公司,它們擁有FDA批準的人工智能軟件工具,可以幫助臨床醫生診斷和治療中風、糖尿病視網膜病變、顱內出血及癌癥等疾病。

    然而,這些人工智能工具的臨床應用進展緩慢。原因之一是,像美國放射學會(AmericanCollege of Radiology ,簡稱ACR)這樣的醫生認證機構,最近才開始發布如何可靠使用人工智能軟件工具的正式用例。患者也可能對人工智能驅動的技術產生信任問題。雖然他們可能接受人會犯錯的現實,但是他們對機器犯錯的容忍度極低。

    盡管幫助打開黑箱的努力仍在進行,人工智能在目前的初期采用階段,在臨床環境中最有益的作用或許就是幫助提供者做出更好的決策,而不是在決策過程中取代他們。多數醫生可能不相信黑箱,可如果他們依舊是最終的裁決者,他們會將其作為輔助系統來使用。

    為贏得醫生的信任,人工智能軟件開發者必須清楚證明,當解決方案融入臨床決策過程中的時候,它們可以幫助臨床團隊的工作做得更加出色。工具也必須簡單易用。剛開始的時候將人工智能應用于計費和編碼(比如,診斷法、人工智能輔助治療)等低風險的任務也應該有助于信任隨時間而增加。

    在行業層面,需要大家同心協力發布更多證明人工智能好處的正式用例。軟件開發人員和投資者應該與ACR這樣的專業協會合作發布更多用例,制定更多架構來刺激行業采用人工智能并獲得更多的可信度。

    生命科學領域的障礙較低。雖然人工智能在臨床護理環境中的應用仍然面臨諸多挑戰,但是在特定的生命科學用例中采用的障礙較低。比如,ML是一種超乎尋常的工具,可以用來將患者與臨床試驗相匹配,也可以用來進行藥物發現以及確定有效的療法。

    然而,無論在生命科學崗位上還是在臨床護理環境中,這樣的事實仍然存在:許多股東很可能會受到人工智能在醫療保健和生命科學領域擴散的影響。人工智能得到更廣泛采用的障礙當然存在——從監管的不確定因素到信任不足,再到有效用例的缺乏。但是這項技術對改變護理標準、提高效率以及幫助臨床醫生做出更明智決策方面帶來的機會,值得我們去克服那些障礙。

    羅杰·庫安(Roger Kuan) |文 時青靖 | 編輯

    羅杰·庫安是McDermottWill & Emery律師事務所的合伙人,他在該律師事務所專門為醫療保健和生命科學行業的客戶處理知識產權問題。

    關鍵詞:
    相關閱讀

    已有0人發表了評論

    哈佛網友評論

    杜尚论坛