科技改變生活 · 科技引領未來
杜克大學的研究人員已獲得一筆價值超過196,000美元的贈款,以解決基于AI的臨床決策支持軟件的可解釋性功能的需求以及保護該技術的商業秘密的需求-研究人員說,這一問題已成為AI-中新出現的問題,啟用醫療服務。
這項為期一年的贈款授予了杜克大學創新政策法律中心和杜克-馬戈利斯中心的研究人員,并由格林沃爾基金會(Greenwall Foundation)資助,該組織致力于支持生物倫理學研究。
“如何有效地將人工智能整合到醫療服務中,這是杜克-馬戈利斯中心的一個新興工作領域,”杜克-馬戈利斯衛生政策部副主任,政策和臨床教授格雷戈里·丹尼爾(Gregory Daniel)博士,在一份聲明中說。
“通過與Duke Law合作,我們可以更快地采取行動,確定現實世界中的政策方法,以支持將AI結合起來的新興技術,以幫助醫生和患者做出更好的醫療保健決策。”
研究人員在他們的撥款建議中認為,醫療保健專業人員的職責之一是基于合理且可解釋的理由做出決定,并且他們有權了解治療的性質和理由,包括軟件生成的建議。但是,一些詳細的解釋可能會以損害開發人員商業秘密的方式促進復制。
研究人員表示需要基于AI的臨床決策支持系統,以提高透明度并解釋決策,以便用戶可以理解如何以及為何提供某些建議。這個問題通常被稱為AI的“黑匣子”挑戰。
“盡管軟件開發始終涉及貿易秘密,但由于與保護和執行軟件專利相關的挑戰,貿易秘密作為創新激勵的重要性可能有所提高,”杜克法律中心Elvin R. Latty教授Arti Rai ,在一份聲明中說。“因此,基于AI的軟件的主要監管機構FDA以及專業組織,提供商和保險公司都對如何平衡可解釋性和貿易保密性問題抱有濃厚的興趣。”
根據一份新聞稿,研究小組計劃通過撥款,收集和審查有關某些基于AI的軟件的私人和公共投資的數據。他們還計劃與醫療監管部門的利益相關者進行訪談,并舉辦私人研討會,其中包括開發商,采購,監管者,用戶和患者。
該研究小組的目標包括:就醫療保健專業人員的可解釋性的適當水平提出建議,并確定可以采用哪些法律或私人自我監管方法。
研究人員計劃在白皮書和同行評審的期刊中發表他們的發現和建議。他們還計劃舉行一次公開會議,討論調查結果。
李熙