【科技.未來】要取代人類醫生 人工智能還欠甚麼?
雖然人工智能診症愈來愈準,但診斷過程是否完美?而即使人工智能診症能力匹敵人類醫生,又是否意味着足以取代醫生?
承接上文:【科技.未來】診症能力媲美人類 人工智能將成未來醫生?
雖然AI診症潛力龐大,但現階段並非無可挑剔。演算法的能力受限於它的訓練數據,若數據不夠多元,或會令這些診斷工具帶有種族偏見。例如,2017年一項有關兒童智能障礙的研究,就發現Face2Gene對於比利時白人唐氏綜合症兒童的診斷準確率為80%,但對剛果黑人只有37%。「我們知道這是需要處理的問題,隨着技術改進,偏見會愈來愈少。」Face2Gene開發公司FDNA的技術總監Yaron Gurovich 說。
此外,不是所有疾病都可以用上述方法訓練演算法診斷。例如精神障礙的數據便缺乏正確的參考標準。美國國家精神衞生研究院(NIMH)前總監Steven Hyman指出:「你至少需要有一個真正獨立、強而有力的判斷準則。」以訓練演算法診斷皮膚癌為例,訓練數據中會有分類清晰的活體組織切片樣本,良性還是惡性黑白分明,但精神障礙的數據中沒有活體組織切片,至少現階段如此,「很多人都忘記了這一點。」 Hyman說。
現時以樣本照片訓練演算法或許十分順利,但Google在印度的試驗似乎反映出實地使用如何有別於實驗室研究。去年11月,當地一名病人報稱視力模糊,遙距醫療中心從地區診所收到六張照片,雖然部分圖片因為設備落後而不夠清晰,但醫療中心醫生Anusha Arunachalan仍能從照片中看到病人視網膜出血,診斷為增殖性糖尿病視網膜病變(proliferative diabetic retinopathy)。當時醫生們決定也讓Google診斷,結果其中兩張照片被判斷為增殖性,兩張為嚴重病變,剩餘兩張則被指影像太模糊而無法判斷。
醫療中心的醫生表示,遇上不清晰的照片,他們仍會盡量看當中清晰的部分,但AI無法這樣做。帶領ARDA團隊的Google產品經理及醫生彭浩怡(Lily Peng)指,她們正研究如何讓ARDA在不同照片質素下運作,為演算法對於照片質素設一下限。當中的挑戰在於她們面臨一個「取捨」:若容許演算法以模糊的照片診斷,或許無法察覺疾病早期時的微小病變。
過程黑箱作業
美國維珍尼亞大學哲學教授Paul Humphreys指出了AI診症的另一個問題:機器學習運作就如人腦一樣是「黑箱」,亦即我們可以用足夠數據訓練一個演算法準確辨識一隻貓,但無法清楚知道它到底如何做到。
Tsirigos嘗試解釋自己開發的演算法如何能夠辨認出人類醫生看不到的腫瘤基因變異:「這些癌症導致的突變似乎有一些極微細的影響,只有演算法才能偵測到。」但到底這些微妙的變化是什麼,他坦承「我們不知道」:「它們只藏於演算法之中,沒人知道怎樣擷取出來。」
史丹福大學癌症研究所生物醫學資訊總監Daniel Rubin質疑:「重要的問題在於,它們是否值得信賴、足以取代現有診斷方法?」他認為這一問題的答案有待未來反覆確認。
這種不透明衍生出一連串問題。例如我們該如何定奪AI的錯失是不幸而無法避免的醫療錯誤,還是不可接受的醫療疏忽?使用這些AI的醫生或醫療機構,若不完全知道診斷工具如何運作,又是否稱得上負責任?
去年11月,澳洲蒙納殊大學(Monash University)哲學教授Robert Sparrow在中文大學生命倫理學中心舉辦的「AI與數碼醫護工作坊」上,提出了類似的質疑:「即使AI診斷可靠,黑箱問題會令醫生和病人難以信任它們……把AI的治療建議用到病人身上的正當性也將受到挑戰。」
但在康乃爾大學精準醫療研究所(EIPM)總監Olivier Elemento眼中,這些問題似乎不太重要。他認為,雖不知道AI如何運作,但放着一個99%正確的測試不用,是十分愚蠢的:「坦白說,這種演算法要應用於臨床測試,它不需要完全可以解釋,只要可靠就夠了。」
醫生豈止診症
當AI展現了卓越的診症能力,是否有朝一日可以取代人類醫生?對於張康的研究,英國圖靈研究所(Alan Turing Institute)電腦視覺及機器學習研究員Chris Russell指出,AI診症的能力雖然強大,但不代表治療病人可以完全毋須醫生,因為診症系統所用的醫療記錄仍需由經訓練的專家建立,而他們的知識將是診斷的關鍵:「總要有人討論你的症狀,然後輸入機器中,我看不到這個技術可以完全踢走人類醫生。AI可以幫助醫生,但要取代醫療專業人士仍有很長的路要走。」
除了擔心年資較淺的醫生未來或過分依靠AI,而沒有充分學習自行診症之外,Russell還質疑病人是否樂於被AI診症:「若它作為一個介面推出,直接由病人輸入症狀,我想他們會十分不安。當你去看醫生,你希望感到有人真正關心並照顧你。」
去年12月,同行評審期刊《公共科學圖書館:綜合》(PLOS ONE)刊登的一項調查似乎也呼應了這種說法。調查就六個範疇訪問了720位英國全科醫生,當中高達94%受訪醫生表示,AI無法做到人類醫生般關懷照顧病人。而在分析病人資訊以診斷病症、評估何時轉介病人、組織個人化的治療方案等方面,他們都認為AI無法取代醫生;只有在管理檔案如更新醫療記錄,以及分析病人資訊以預測病情發展方面,才有過半數醫生覺得AI有可能代勞。
Sparrow的要求層次更高:「我不認為電腦可以作出道德決定。當在治療上要把病人價值考慮其中,AI就注定失敗。更具爭議的地方在於,我不認為機器可為行動提供道德理由。你會不會聽Google助理的意見,幫你父親拔喉?機器不可能像人一樣支持自己的立場,因為它們與人的關係不一樣,也因為它們無法感受到尷尬或懊悔。」
Butt也不認為Babylon的聊天機械人可取代醫生,畢竟醫生要做的絕不限於診症:「關懷照顧不只是診斷病症或處方藥物,而是要理解到你的病人是否足以承受你建議的化療痛苦,理解他們的家人能否在未來幾個月給予病人支持。現時沒有任何軟件能夠取代醫生的這些功能。」
上文節錄自第152期《香港01》周報(2019年3月4日)《協助人類VS取代人類 未來有病就睇AI?》。
更多周報文章︰【01周報專頁】《香港01》周報,各大書報攤、OK便利店及Vango便利店有售。你亦可按此訂閱周報,閱讀更多深度報道。更多人工智能議題文章:
人工智能結合生前數據 人類可得「永生」?以數碼化身得「永生」 技術與數據監管成疑