2018年,美國食品和藥物管理局(FDA)正式授權第一套人工智能設備用於診斷眼疾。到現在才幾年的時間,醫療領域已經出現了大量人工智能醫療系統。也就是說,機械人已經在給不少人看病了。

賓夕凡尼亞大學(University of Pennsylvania)生物醫學信息學研究所所長摩爾(Jason H. Moore)最近發表在美國科學人(Scientific American)雜誌上的文章質疑了人工智能診斷軟件的幾項侷限性。其中他覺得最令人擔憂的是,這些軟件直接給出「診斷」結果,拿不出理由。

摩爾是轉化生物信息學科學家、生物醫學信息學家和人類遺傳學家。他表示很高興看到人工智能的發展,特別對於大數據的處理,這些系統展現了人力達不到的優勢。

6月28日,世界衛生組織(WHO)公布了一份對人工智能醫療系統的管理綱要,裏面提到這些軟件在責任感、公平度、職業道德、可持續發展、透明度、值得信賴度和有據可查等方面都很欠缺。

摩爾說,人工智能系統存在各種隱藏的偏見。這是因為設計師自身存在各種偏見,他們在設計系統的時候不自覺地把這樣的影響留在系統內。現在要把這些偏見從人工智能系統中除掉是非常困難的工作。例如,急症室用的一套系統無意地對不同膚色的人種就會區別對待。

不過摩爾認為現在最糟糕的問題是,人工智能醫療系統診斷過程的透明度很差。

對於疑難雜症,患者一般都會徵求很多專家醫師的意見,也很正常都會提出諸如「為甚麼你認為這個療法最好?」,或是「為甚麼你推薦這個療程?」這類的問題。醫生都能一一作答,消除病人的疑惑,建立信任。可是現在的人工智能醫療系統完全答不出這些問題。

摩爾說,現在多數人工智能軟件來自商業實體,他們為了保護各自的知識產權並不公開他們的算法和代碼。內部細節的不透明度,可能是這些系統無法向患者就它們做出的診斷結果作出解釋的因素之一。

可是,上世紀70年代推出的最早的一套人工智能系統MYCIN卻能夠很好地解釋自己。那套系統可以給深切治療部的患者自動開出消炎藥處方。面對「為甚麼」的問題,那套系統會把自己計算的各種可能性擺出來,告訴用戶它如何得到處方所示的結果。

遺憾的是,這麼重要的功能在近年人工智能飛速發展的過程中竟然丟失了。摩爾認為,這只需要系統把自己計算的每一步做好記錄展示出來就可以辦到。如果是這樣,他希望接下來系統設計人員能把這作為系統的關鍵元素融入設計中。

也有可能有的系統現在發展到如此複雜的程度,連設計者自己都搞不清裏面的機制。摩爾說,如果是這樣,那這樣的人工智能系統就不適合作為醫療系統,根本就不能用。#

------------------

【堅守真相 重傳統】

📍收睇全新直播節目《紀元新聞7點鐘》:
https://bit.ly/2GoCw6Y

📍報紙銷售點:
https://www.epochtimeshk.org/stores
📍加入會員:
https://hk.epochtimes.com/subscribe
📍成為大紀元Patron,收睇無過濾嘅新聞影片:
https://www.patreon.com/epochtimeshk

------------------

📰支持大紀元,購買日報:
https://www.epochtimeshk.org/stores
📊InfoG:
https://bit.ly/EpochTimesHK_InfoG
✒️名家專欄:
https://bit.ly/EpochTimesHK_Column