自從1956年美國計(jì)算機(jī)科學(xué)家約翰·麥卡錫在達(dá)特茅斯會(huì)議提出人工智能這一概念以來,人工智能(AI)已經(jīng)發(fā)展了60多年,在此過程中歷經(jīng)“三起兩落”。2016年AlphaGo戰(zhàn)勝李世石事件,將人們對(duì)人工智能的關(guān)注推向高潮。2017年,人工智能首次被寫入政府工作報(bào)告,同年7月,國務(wù)院印發(fā)《新一代人工智能發(fā)展規(guī)劃》,提出“人工智能的迅速發(fā)展將深刻改變?nèi)祟惿鐣?huì)生活、改變世界”“人工智能成為國際競爭的新焦點(diǎn)”。隨著我國互聯(lián)網(wǎng)、大數(shù)據(jù)、云計(jì)算等領(lǐng)域的快速發(fā)展,人工智能的發(fā)展時(shí)機(jī)已經(jīng)成熟。預(yù)計(jì)在不久的將來,人工智能將通過交通出行、看病就醫(yī)、金融服務(wù)、教育培訓(xùn)等方面,融入每個(gè)人的生活。
人工智能在發(fā)展進(jìn)程中主要面臨兩個(gè)問題,即技術(shù)問題和相關(guān)的倫理與法律問題。從某種程度上來說,人工智能倫理與法律問題的重要性要超過其技術(shù)問題,就醫(yī)療領(lǐng)域而言更是如此。發(fā)展人工智能應(yīng)該以人類社會(huì)的穩(wěn)定與福祉為前提,發(fā)展醫(yī)學(xué)人工智能的目的脫離不開醫(yī)學(xué)本身,即協(xié)助醫(yī)生為人類解除病痛、恢復(fù)健康。近年來,隨著人工智能技術(shù)的突飛猛進(jìn),其在醫(yī)療領(lǐng)域的應(yīng)用也取得了重大突破。目前,人工智能已廣泛應(yīng)用于疾病的預(yù)防、診斷、治療,風(fēng)險(xiǎn)監(jiān)測,健康管理,新藥開發(fā)等領(lǐng)域,人工智能已經(jīng)在英國、美國等發(fā)達(dá)國家的各類醫(yī)療機(jī)構(gòu)中全面展開應(yīng)用。人工智能技術(shù)在醫(yī)療領(lǐng)域的應(yīng)用和發(fā)展,也帶來了一系列法律問題,其中最為主要的當(dāng)屬患者醫(yī)療健康數(shù)據(jù)管理問題和醫(yī)療損害責(zé)任分擔(dān)問題。
醫(yī)學(xué)AI的數(shù)據(jù)規(guī)范與隱私保護(hù)
智能移動(dòng)終端和可穿戴設(shè)備收集了大量與患者相關(guān)的醫(yī)療健康數(shù)據(jù),這些寶貴的數(shù)據(jù)資源在科研領(lǐng)域和商業(yè)領(lǐng)域都有巨大價(jià)值。但大量數(shù)據(jù)的匯聚也存在很大風(fēng)險(xiǎn),一旦數(shù)據(jù)泄露,被不法分子利用,將會(huì)給人們的生命財(cái)產(chǎn)安全造成巨大損失。如何在保護(hù)患者個(gè)人隱私的同時(shí)安全合理地利用這些資源,就成為我們需要重點(diǎn)考慮的問題。
1996年,美國國會(huì)頒布了《健康保險(xiǎn)攜帶和責(zé)任法案》(Health Insurance Portability And Accountability Act, HIPAA),旨在保護(hù)患者隱私信息的安全,并維護(hù)員工、客戶和利益相關(guān)方數(shù)據(jù)的完整性,明確了患者對(duì)自己的健康狀況有隱私權(quán),建立起保護(hù)病人隱私的法律框架和法律標(biāo)準(zhǔn),提升了整個(gè)衛(wèi)生行業(yè)的標(biāo)準(zhǔn)化水平。但該法案的受用范圍有限,僅對(duì)醫(yī)療機(jī)構(gòu)提出了要求,制藥企業(yè)、公共衛(wèi)生機(jī)構(gòu)等不受HIPAA的規(guī)制。后來根據(jù)HIPAA的授權(quán),美國健康與人類服務(wù)部(Human And Health Service, HHS)制定了《HIPAA隱私規(guī)則》(以下簡稱《規(guī)則》),主要保護(hù)“可識(shí)別為個(gè)人身份的健康信息”(Individually Identifiable Health Information),規(guī)定了個(gè)人健康信息如何“去身份化”,以便更好地保護(hù)患者隱私。
2016年4月,歐洲議會(huì)投票通過《通用數(shù)據(jù)保護(hù)條例》(General Data Protection Regulation,GDPR),該條例保障了個(gè)人信息數(shù)據(jù)隱私,也為新技術(shù)研發(fā)過程中的數(shù)據(jù)信息處理提供了一定的標(biāo)準(zhǔn)和規(guī)范。有研究表明,GDPR對(duì)人工智能應(yīng)用及發(fā)展的影響很大,它一定程度上阻礙了人工智能、數(shù)字經(jīng)濟(jì)等新技術(shù)、新事物在歐盟的發(fā)展,給企業(yè)經(jīng)營增加了負(fù)擔(dān)和不確定性。
英國政府在《英國政府回應(yīng)上議院人工智能特別委員會(huì)關(guān)于人工智能的報(bào)告:準(zhǔn)備,意愿和能夠?》(Government Response To House Of Lords Artificial Intelligence Select Committee’s Report On ?AI In The UK: Ready, Willing And Able?)中提出,建立和維持公眾對(duì)其數(shù)據(jù)安全使用的信任對(duì)人工智能的廣泛應(yīng)用至關(guān)重要。在歐盟GDPR的影響下,英國通過了《數(shù)據(jù)保護(hù)法案2018》(Data Protection Act 2018),該法案大力支持?jǐn)?shù)據(jù)在人工智能和機(jī)器學(xué)習(xí)中的安全使用,同時(shí)也包含一些必要的保障措施,確保有嚴(yán)格的規(guī)定來規(guī)范數(shù)據(jù)的自動(dòng)化處理過程。
我國也高度重視數(shù)據(jù)規(guī)范使用及個(gè)人隱私保護(hù)。2015年8月,國務(wù)院印發(fā)《促進(jìn)大數(shù)據(jù)發(fā)展行動(dòng)綱要》,高度重視數(shù)據(jù)共享、數(shù)據(jù)安全和隱私保護(hù)。綱要明確了數(shù)據(jù)共享的范圍邊界和使用方式,厘清了數(shù)據(jù)共享的義務(wù)和權(quán)利,加強(qiáng)了數(shù)據(jù)安全保障和隱私保護(hù)。2016年6月,國務(wù)院辦公廳印發(fā)《關(guān)于促進(jìn)和規(guī)范健康醫(yī)療大數(shù)據(jù)應(yīng)用發(fā)展的指導(dǎo)意見》,旨在營造一個(gè)互聯(lián)融通、開放共享的良好數(shù)據(jù)環(huán)境,為數(shù)據(jù)規(guī)范化管理奠定了基礎(chǔ)。2018年7月,國家衛(wèi)健委發(fā)布了《國家健康醫(yī)療大數(shù)據(jù)標(biāo)準(zhǔn)、安全和服務(wù)管理辦法(試行)》,該辦法規(guī)范了大數(shù)據(jù)的標(biāo)準(zhǔn)管理及安全管理。2019年11月,工業(yè)和信息化部曾開展為期兩個(gè)月的APP侵犯用戶權(quán)益專項(xiàng)整治行動(dòng),重點(diǎn)整治APP違規(guī)收集用戶個(gè)人信息、違規(guī)使用用戶個(gè)人信息等突出問題,結(jié)合企業(yè)、社會(huì)、政府多方力量規(guī)范行業(yè)管理。
人工智能醫(yī)療機(jī)器人能夠收集使用者的基因、病歷、健康狀況等重要信息,這些信息一旦泄露可能會(huì)給患者帶來巨大不便。在人工智能時(shí)代,建立行業(yè)規(guī)范以保護(hù)患者健康數(shù)據(jù)至關(guān)重要,這不僅是對(duì)個(gè)人隱私權(quán)的尊重,更是對(duì)社會(huì)整體利益的保護(hù)。然而,過于嚴(yán)苛的數(shù)據(jù)保護(hù)可能會(huì)阻礙人工智能的發(fā)展,歐盟GDPR就是一個(gè)很好的例子,那么,如何兼顧數(shù)據(jù)保護(hù)和科技發(fā)展呢?
2014年,加拿大提出了共享匿名數(shù)據(jù)不需要征得同意的聲明,其在政策聲明修正案中提到,完全依賴于二次使用不可識(shí)別信息的研究不需要征得同意。在歐盟GDPR中也提到,當(dāng)一項(xiàng)任務(wù)“符合公眾利益”時(shí),可以在未經(jīng)本人知情同意的情況下處理個(gè)人數(shù)據(jù)。這些規(guī)定給予我們一定啟示,即在樣本量大到回顧性獲得患者同意不現(xiàn)實(shí)時(shí),可以從特定數(shù)據(jù)使用的“知情同意”過渡到“廣泛同意”“選擇退出同意”或“推定同意”。
在法律上,當(dāng)受到法律保護(hù)的兩種權(quán)利發(fā)生沖突時(shí),會(huì)比較兩種權(quán)利背后要保護(hù)的法益,優(yōu)先考慮法益較重的權(quán)利。當(dāng)醫(yī)學(xué)人工智能的發(fā)展與應(yīng)用旨在促進(jìn)人類的健康與幸福時(shí),在保證數(shù)據(jù)安全且不會(huì)對(duì)他人造成傷害的前提下,個(gè)人隱私權(quán)應(yīng)當(dāng)做出一定讓步,從而達(dá)到兩者之間的平衡,在不損害個(gè)人權(quán)益的前提下推動(dòng)技術(shù)進(jìn)步。
另外,作為互聯(lián)網(wǎng)法律基礎(chǔ)制度之一的“避風(fēng)港規(guī)則”也能給我們一定啟示。建立數(shù)據(jù)集的過程中,當(dāng)逐個(gè)獲取數(shù)據(jù)主體的同意成本過高或不現(xiàn)實(shí)時(shí),我們可以先收集處理,在數(shù)據(jù)主體發(fā)出選擇退出同意的請(qǐng)求時(shí),再將數(shù)據(jù)從數(shù)據(jù)集中清除,在尊重?cái)?shù)據(jù)主體意愿的前提下對(duì)數(shù)據(jù)進(jìn)行收集處理、研究分析,既保證患者充分行使自己的權(quán)利,又保證醫(yī)學(xué)人工智能技術(shù)的發(fā)展不受阻。
醫(yī)學(xué)AI的損害責(zé)任賠償
醫(yī)學(xué)人工智能最主要的應(yīng)用體現(xiàn)在醫(yī)療機(jī)器人和智能醫(yī)療診斷方面。如果醫(yī)療機(jī)器人和智能醫(yī)療診斷系統(tǒng)在使用過程中,由于系統(tǒng)故障或者電力供應(yīng)方面出現(xiàn)問題等原因做出錯(cuò)誤診斷或行為從而導(dǎo)致醫(yī)療事故的發(fā)生,且對(duì)患者造成醫(yī)療損害時(shí),如何判定醫(yī)療損害責(zé)任?人工智能本身是否可以承擔(dān)損害責(zé)任呢?醫(yī)學(xué)人工智能的法律主體地位是人工智能發(fā)展的終極思考問題,相關(guān)方面的討論從未停止,然而,目前人工智能的發(fā)展還處在弱人工智能階段,現(xiàn)在以及未來很長一段時(shí)間內(nèi),人工智能都將是從屬于人類的工具。因此,應(yīng)將其當(dāng)作產(chǎn)品來看待,損害責(zé)任的承擔(dān)者將在該產(chǎn)品的生產(chǎn)者、設(shè)計(jì)者、所有者、使用者中產(chǎn)生,但由于人工智能算法的不透明性和監(jiān)管制度的不完善,對(duì)利益相關(guān)者進(jìn)行公平公正的責(zé)任劃分存在很大困難。
如何讓人工智能在確保安全的前提下進(jìn)入我們的生活呢?對(duì)于如何監(jiān)管人工智能在醫(yī)學(xué)領(lǐng)域中的應(yīng)用,有學(xué)者強(qiáng)調(diào)人工智能算法的透明化更利于監(jiān)管,但也有反對(duì)意見指出,首先,算法程序本身具有很高的專業(yè)壁壘,大多數(shù)非專業(yè)人士讀不懂,只能依靠算法程序行業(yè)自我監(jiān)督;其次,在如今人工智能深度學(xué)習(xí)的情況下,代碼編寫者可能也無法完全準(zhǔn)確預(yù)測其結(jié)果;最后,代碼是編寫者智慧的結(jié)晶,甚至有可能是科技公司的安身立命之本,如果隨意公開,可能會(huì)引發(fā)知識(shí)產(chǎn)權(quán)、商業(yè)機(jī)密等一系列法律問題。另有學(xué)者建議,可以將監(jiān)管前置化,把對(duì)于醫(yī)學(xué)人工智能產(chǎn)品的監(jiān)管轉(zhuǎn)為對(duì)其生產(chǎn)企業(yè)的監(jiān)管,為此類企業(yè)設(shè)置壁壘,讓有良好信譽(yù)的企業(yè)對(duì)其產(chǎn)品負(fù)責(zé),但如此一來,很可能造成大企業(yè)壟斷的局面,小型科技公司將缺乏競爭力,不利于良好人工智能產(chǎn)業(yè)環(huán)境的營造。確定醫(yī)療損害賠償責(zé)任實(shí)質(zhì)上是醫(yī)學(xué)人工智能的監(jiān)管問題,如何科學(xué)合理地監(jiān)管醫(yī)學(xué)人工智能仍然有待研究。
人工智能以人為本的倫理原則
倫理原則決定著技術(shù)的發(fā)展方向,目前人工智能相關(guān)的法律尚未出臺(tái),需要倫理準(zhǔn)則來規(guī)范其應(yīng)用發(fā)展。在這方面,歐盟走在了世界前列,2018年4月,歐盟委員會(huì)發(fā)布政策文件《歐盟人工智能》(Artificial Intelligent For Europe),提出以人為本的人工智能發(fā)展路徑,旨在提升歐盟科研水平和產(chǎn)業(yè)能力,從而可以更好地應(yīng)對(duì)人工智能和機(jī)器人帶來的技術(shù)、倫理、法律等方面挑戰(zhàn),讓人工智能更好地服務(wù)于歐洲社會(huì)和經(jīng)濟(jì)的發(fā)展。2019年4月,歐盟先后發(fā)布了兩份重要文件——《可信AI倫理指南》(Ethics Guidelines For Trustworthy AI)和《算法責(zé)任與透明治理框架》(A Governance Framework For Algorithmic Accountability And Transparency)。
中國發(fā)展研究基金會(huì)在其發(fā)布的報(bào)告《未來基石——人工智能的社會(huì)角色與倫理》中指出,要通過各界合作建立一套切實(shí)可行的指導(dǎo)原則,鼓勵(lì)發(fā)展以人為本的人工智能。以人為本是人工智能發(fā)展的基本倫理要求,任何一項(xiàng)技術(shù)的發(fā)展進(jìn)步都是以促進(jìn)人類社會(huì)的進(jìn)步、增進(jìn)人們幸福感為宗旨的,人工智能技術(shù)也不例外,必須保證它符合我們的倫理道德,且不會(huì)對(duì)人類造成傷害,這是醫(yī)學(xué)人工智能進(jìn)步和發(fā)展的前提。