AI 錯了,病人死了怎麼辦──AI 可以當醫生嗎,萬一出錯誰來擔? | TechOrange 科技報橘
Search
Close this search box.

AI 錯了,病人死了怎麼辦──AI 可以當醫生嗎,萬一出錯誰來擔?

TechOrange 編輯部推薦好書:《AI 來了 LAW 變了》
AI 浪潮襲捲各產業,醫療成為備受看好的發展領域。你是否曾經想像 AI 幫人類看醫生的畫面呢?不過,究竟 AI 醫療目前發展如何,當 AI 介入醫療行為,出事了法律責任歸屬是誰?

本書為全台第一本 AI 法律科普書,集結各領域專家,帶領讀者從生活中可能遇到的案例,探討 AI 對社會的影響。下文作者為人工智慧法律國際研究基金會副秘書長,帶你一同了解以上問題!

文/韓政道

AI 錯了,病人死了。醫師、AI、開發商三方間,何者應當承擔法律上的過失責任?

【案例】

某 AI 科技軟體公司與醫院合作,開發一套專門治療癌症的輔助診斷系統(以下簡稱 X 系統)。X 系統的功能是,醫師先將以問診、觸診等方式取得之病徵輸入後,透過內部所搜集的世界各國癌症醫學文獻與病歷資料等,配合該公司獨家研發的演算法分析後,提供醫師疾病的名稱與所對應的治療方案。

某日,該院的主治醫師 B 採用 X 系統診斷病人 C,系統判別 C 罹患某癌症,並提供了應當服用某款藥物的治療建議。B 不假思索照做後,導致 C 服用該藥後死亡。事後經調查發現,C 死亡的起因是 X 系統失靈,提供的投藥建議顯然有誤。

試問:X 系統如果是一項 AI 的展現,何者需要為 C 的死亡負責?

【解析說明】

先來談談,現在 AI 醫療發展到哪了?

AI 醫療是什麼?一般社會大眾對於 AI 與醫療技術的結合,其印象往往都來自電影描繪未來世界時的情節片段。可以馬上聯想到的情境是,病人躺在手術台,身旁有好幾隻類似當今達文西手術的機器手臂,在病人先經過紅外線掃瞄身體後,機械手臂就能直接進行手術將病灶取出。在這整項手術的過程中,不需任何人類醫師的參與。

但是,這樣的場景,畢竟仍是只聞樓梯響,雖然現階段我們已經慢慢能從報章雜誌的報導中,看到很多 AI 與醫療結合的身影,但目前 AI 醫療的發展,仍是聚焦於大數據與演算法的交互運用,「協助」醫師提升診療或手術的精準性,或是減輕臨床工作的壓力,也就是作為醫生的好幫手。

目前 AI 應用於醫療場域方面,諸如,AI 醫學影像的判讀、個人健康管理以及醫療文獻分析等。以當中技術最為純熟的影像判讀為例,傳統視網膜的診斷,眼科醫師需親眼觀察,現有 AI 技術則可藉由大量視網膜病變圖像的搜集,並以演算法來訓練歸納與分析,協助醫師精準判讀病人的眼部狀況。

AI 醫療影像判讀,除了提高診斷的精確性外,也能降低醫師診斷耗廢的時間,提升診療效率。就安全性來說,由於目前臨床上並非讓 AI 系統跑出的判讀結果,直接取代醫師的診斷,最終眼科醫師依然要為整體療程負擔最終的法律責任。所以,現今我們的 AI 醫療與應用中,似乎還未能見到稱得上是 AI 醫師的樣貌。

AI 可以是醫生嗎?

延續上述的話題,我們現在來談談 AI 作為「醫生」的可能性。這個問題可以從兩項層面來思考。其一,AI 是否如同人類,有趨吉避凶,從錯誤中學習的進步能力?其二,AI 如果具有這項能力,法律是否須將「AI」視為如同人類般的存在?也就是在這邊所要探討的重點:「AI 是否為醫師,是否要為自己的醫療判斷承擔法律責任?」這兩個看似不同層次的問題,其實並不複雜,也很好理解,當然要獲得比較全面且令人滿意的答案,也要加入一些假設和想像力。

關於第一個問題,現今對於 AI 的認識,大致可以從「強 AI」(Strong AI)與「弱 AI」(Weak AI)來理解,強 AI 又可以稱為「通用型人工智慧」(Artificial General Intelligence),意思就是能夠擁有與人類相同程度的智慧,具有自主學習、推理等能力,甚至擁有自我意識,對於未知也有未雨綢繆與調整目標的應對能力。簡單的說,就是「AI=人類」。

相較下,弱 AI,也能稱為「特定型人工智慧」(Artificial Narrow Intelligence)。是目前我們人類社會 AI 應用與發展的現在進行式。諸如,某科技大廠開發能擊敗世界棋王的圍棋軟體、能自行判斷地勢與規劃清掃途徑的掃地機器人,他們在特定的領域中,透過人類思考的「模擬」,配合 AI 大數據演算法的精準迅速等特性,甚至可以做的比一般人類還好,所以普羅大眾才會有現代社會「彷彿」已經正式邁入「AI 時代」的印象。

使用「彷彿」來形容,並非在潑誰冷水,這是純粹定義上的問題,如果狹隘的從「強 AI」來定義,我想回歸現實面來觀察,現階段的「技術應用」顯然都不能稱為 AI。例如,一直以來都很有討論熱度的達文西手術,機器手臂仍需倚賴人類醫師的操控,與上述談到的電影情境仍有很大差異。

從仰賴大量醫學文獻分析來嘗試提供精準治療方案的 AI 診療系統來說,AI 依然無法掌握人類基因的獨特性及與疾病間的關聯性,也不易察覺人類醫生可能會留意到的細微線索,理解力與洞察力難以與人類醫生媲美。因此,以上問題的初步答案應是:「在弱 AI 的應用下,AI 不是醫師,後續相關的法律責任仍需由人類醫師承擔。

但是,如果「AI=人類」的假設是成立的,就請各位想像一下,當人類醫師發生醫療失誤時,國家透過過失責任的釐清與追究,希望能讓其他醫師知所警惕,面對脆弱的生命,盡量不要疏忽大意。

如果某天出現「AI=人類」的醫療產品,也就是發展到強 AI 的階段時,AI 屆時將擁有與人相同的情感,懂得利益衡量與趨吉避凶,我們理當能提醒他需對所犯的錯誤知所警惕,法律制裁的效果自然也會同樣有效。這樣的想像,可能有朝一日會發生,我們可以拭目以待。

病人死了,誰要負責?

在探討開頭的案例前,可能要先稍微介紹一下何謂「醫療過失」。首先,過失的相對概念稱為「故意」,意思是醫師有刻意導致病人死亡或受傷的慾望。一般來說,很難想像實現這項慾望的行為,稱得上是一種「醫療行為」。畢竟,醫療本身目的就是為拯救生命與找回健康,如果脱逸了此項目的,充其量就只是穿著白袍的殺人犯而已。這也是為何一般醫療法領域所探討的法律責任,多為以醫師的「過失」責任為中心。

接著,我們要開始觸及問題核心:「何種情況下,醫師必須負擔醫療過失責任」?簡單來說,病人身體出現不良結果或反應(如嚴重過敏或死亡)後,必須進一步確認,主要原因是否來自醫師本身的疏忽。疏忽與否,一般則會以醫師診療時有無確實遵守「醫療常規」來判斷。醫療常規,主要來自於臨床醫學的共通經驗,可能早被寫入教科書,成為醫師本應具備的基礎專業能力,也可能是臨床上所明訂的作業準則(SOP)。

回到案例中,基本上我們已經確立了一項初步認知:「目前的 AI 醫療,皆是弱 AI 的應用與展現,AI 不是醫師,我們無法讓它承擔任何法律責任。

而在此脈絡下,針對病人 C 的死亡結果,我們又該向誰咎責呢?第一個能想到,當然就是操作 X 系統的人類醫生 B。從系統 A 的功能可知,其實正是目前被廣泛視為「AI 輔助診斷」的醫療軟體,稱為「輔助」診斷,也正是意味著,系統就如同 B 的左右手,無論是左手疏失,還是右手出錯,責任都應回歸主人身上。

換句話說,當 AI 輔助診斷系統出錯,或依演算法提供的治療方案,並未符合病人最佳利益時,由於這項「建議」仍需透過醫生的審視與評估,才會成為臨床上的「診斷」,理所當然的,醫師應當肩負最終的法律責任。

掌握 AI 趨勢 & 活動資訊一點都不難!訂閱電子報,每週四一起《AI TOgether》

感謝訂閱!隨時注意信箱的最新資訊

本案例中,顯然 X 系統的演算法出了嚴重紕漏,提供了明顯錯誤的投藥方案供人類醫師參考,故 B 為 C 死亡承擔過失責任的關鍵即是:「B 毫不思索直接採納 X 系統的建議,違反了其診療上應遵守的注意義務」。換言之,當 X 系統的判斷發生偏差或不當時,B 仍有發現錯誤並予以導正的義務。

至於,大家可能會好奇,雖然系統的操作者是人類,難道研發這套 X 系統的科技公司完全沒有任何責任嗎?其實這個答案很簡單,可以用一個重要的觀念來回答,正因為現階段的我們,無法要求 AI 醫療產品的水準,能與未來理想的全自動駕駛一樣,不再需要駕駛者般的精準。

當現今所有的 AI 產品仍被定位於「輔助」的弱 AI 角色時,其實背後所代表的是,系統操作者仍應扮演控制風險與降低損害的責任承擔者

我們應該怎麼看待 AI 醫療的發展?

在當今 AI 議題受到熱烈探討的背景下,AI 在醫療領域的運用,雖會創造新的風險與實害,但是,面對 AI 技術在醫療領域持續深化發展的趨勢,我們仍應秉持著正面積極與樂觀的態度。

畢竟,AI 能為人類社會創造的公共利益,必然遠遠高於其連帶產生的負面效應。未來,我們應當持續關注 AI 醫療的發展,重視醫療風險的重組與合理分配,讓 AI 所牽動的醫療體系,整體上皆能朝著正確的方向大步邁進。

【推薦閱讀】

【AI 的小知識又增加了】工廠製造產生的超多數據屬於誰的?答案三選一

你有發現跟著 AI 到處跑的「✨」嗎?為何 Google、OpenAI、Spotify 都愛用這符號?

主管這樣算性騷擾嗎?這款 AI 聊天機器人可以回答你,還有匿名舉報功能

 

*本文書摘內容出自《AI 來了 LAW 變了》,由 財團法人人工智慧法律國際研究基金會 授權轉載,並同意 TechOrange 編寫導讀與修訂標題。圖片來源:生成式 AI 工具 Bing。

(責任編輯:廖紹伶)