【“ZiDongHua”之自動(dòng)化決策的人文觀察與思考】目前自動(dòng)化決策算法的主要應(yīng)用場(chǎng)景有:定制信息的推送、顧問(wèn)型服務(wù)(如智能投顧、機(jī)器人醫(yī)生)、自動(dòng)化駕駛汽車、搜索引擎服務(wù)等;隨著深度學(xué)習(xí)技術(shù)的廣泛應(yīng)用,自動(dòng)化決策場(chǎng)景增多,引發(fā)的爭(zhēng)議也日趨激烈;算法解釋權(quán)可看作人類為捍衛(wèi)人的自我決定權(quán),對(duì)抗數(shù)據(jù)控制者和處理者的一種努力。

 

 

自動(dòng)化決策的算法解釋權(quán)

——以合同義務(wù)為視角

 

 

  如果說(shuō)網(wǎng)絡(luò)立法1.0時(shí)代美國(guó)《千禧年數(shù)字版權(quán)法》建立的安全港制度,旨在保護(hù)以信息網(wǎng)絡(luò)傳播權(quán)為主要服務(wù)內(nèi)容的互聯(lián)網(wǎng)企業(yè),那么網(wǎng)絡(luò)立法2.0時(shí)代則開啟了以個(gè)人數(shù)據(jù)和個(gè)人信息為重要保護(hù)對(duì)象的用戶權(quán)利時(shí)代。在這個(gè)圍繞數(shù)據(jù)收集、加工、利用和分發(fā)為核心的世界數(shù)據(jù)工廠中,網(wǎng)絡(luò)企業(yè)利益和個(gè)人利益的此消彼長(zhǎng)既可能影響私法主體的個(gè)體利益,也可能影響不特定群體的利益,甚至?xí)|及作為社會(huì)基本行為規(guī)范邊界的法律制度。因此,一些早期網(wǎng)絡(luò)立法中不被重視的內(nèi)容才在人工智能技術(shù)圖景日漸擴(kuò)大的版圖上再次顯露出來(lái),并彰顯了越來(lái)越強(qiáng)的重要性。自動(dòng)化決策的算法解釋權(quán)正是其中之一。

  目前自動(dòng)化決策算法的主要應(yīng)用場(chǎng)景有:定制信息的推送、顧問(wèn)型服務(wù)(如智能投顧、機(jī)器人醫(yī)生)、自動(dòng)化駕駛汽車、搜索引擎服務(wù)等。盡管法律本體論專家正在努力將規(guī)范約束植入機(jī)器人的開發(fā)協(xié)議或計(jì)算機(jī)芯片之中,但客觀情況是,法律對(duì)產(chǎn)品型算法和服務(wù)型算法采取了完全不同的責(zé)任構(gòu)成要求。換言之,在具有實(shí)體基礎(chǔ)依歸或載體的算法責(zé)任事件中,人們過(guò)于依賴現(xiàn)行的產(chǎn)品侵權(quán)責(zé)任的立法,而沒(méi)有充分考慮自動(dòng)化決策算法本身的侵權(quán)責(zé)任。盡管機(jī)器人醫(yī)生未必在接入互聯(lián)網(wǎng)的狀態(tài)下進(jìn)行工作,但其所用以訓(xùn)練的數(shù)據(jù)集和執(zhí)行具體手術(shù)的深度學(xué)習(xí)算法,可以很容易地同步該領(lǐng)域最新的線上、線下研究成果。因此,建立在技術(shù)中立原則基礎(chǔ)上的網(wǎng)絡(luò)1.0立法,主要是一種責(zé)任免除型而非責(zé)任構(gòu)成型立法,意圖促進(jìn)當(dāng)時(shí)正處于萌芽和發(fā)展期的互聯(lián)網(wǎng)企業(yè)。然而,隨著時(shí)間的推移,不僅資本大舉進(jìn)入該行業(yè),人工智能技術(shù)的發(fā)展也令算法服務(wù)的相對(duì)人在服務(wù)中越來(lái)越處于客體化和被邊緣化的地位。算法解釋權(quán)可看作人類為捍衛(wèi)人的自我決定權(quán),對(duì)抗數(shù)據(jù)控制者和處理者的一種努力。

  與網(wǎng)絡(luò)立法1.0時(shí)代的接入、傳輸、轉(zhuǎn)發(fā)服務(wù)所引起的間接侵權(quán)不同,網(wǎng)絡(luò)立法2.0時(shí)代,算法服務(wù)提供者更多地以直接侵權(quán)行為主體的面目出現(xiàn)。算法服務(wù)提供者需要從網(wǎng)絡(luò)用戶的個(gè)人信息、行為軌跡,甚至投訴過(guò)程中,全方位將用戶作為機(jī)器學(xué)習(xí)的樣本、大數(shù)據(jù)的來(lái)源、人機(jī)交互的模仿對(duì)象和虛擬社會(huì)構(gòu)建的現(xiàn)實(shí)場(chǎng)景。在設(shè)計(jì)、制造和完善算法的過(guò)程中,在構(gòu)建獨(dú)立于現(xiàn)實(shí)經(jīng)濟(jì)社會(huì)之外的虛擬經(jīng)濟(jì)社會(huì)時(shí),需要近距離觀察、研究、追蹤、分析,甚至是監(jiān)測(cè)(如各種傳感器、衛(wèi)星遙感技術(shù)、攝像頭等物聯(lián)網(wǎng)技術(shù))用戶的全場(chǎng)景的活動(dòng)。這些數(shù)據(jù)的碎片共同構(gòu)成了以自動(dòng)學(xué)習(xí)算法為代表的智能工業(yè)熔爐的燃料,以甄別、預(yù)測(cè)、激發(fā)用戶需求,從而為用戶定制服務(wù)或拒絕服務(wù)。用戶在服務(wù)中的主動(dòng)權(quán)也不斷被弱化??梢?,上述代表性算法服務(wù)(產(chǎn)品)都可看作一種廣義的算法技術(shù)為核心的服務(wù)合同。由此,算法服務(wù)提供者便具有了合同法上的從給付義務(wù)和附隨義務(wù)。

  出于保護(hù)企業(yè)商業(yè)秘密和減輕負(fù)擔(dān)的角度,不可能要求提供算法服務(wù)的企業(yè)對(duì)所有算法均進(jìn)行解釋。因此,歐盟對(duì)自動(dòng)化決策的算法解釋權(quán)作出了限制。該制度最早見于歐盟《數(shù)據(jù)保護(hù)指令》第15條,由于該條僅規(guī)范特定類型的算法,而訴訟中爭(zhēng)議最大的是決策是否純粹由機(jī)器(人)做出。因此,該條款既沒(méi)有在歐洲法院受到太多重視,更鮮有被歐洲之外法律制度借鑒。隨著深度學(xué)習(xí)技術(shù)的廣泛應(yīng)用,自動(dòng)化決策場(chǎng)景增多,引發(fā)的爭(zhēng)議也日趨激烈。

  歐盟《一般數(shù)據(jù)保護(hù)條例》在多個(gè)條款中規(guī)定了自動(dòng)化決策算法的問(wèn)題,包括“鑒于”的第71條(以下簡(jiǎn)稱“第71條”),正文的第13條、第14條和第22條。作為同樣以“自動(dòng)化決定”為標(biāo)題的條款,第22條在第15條的基礎(chǔ)上沒(méi)有增加實(shí)質(zhì)性的內(nèi)容,只是補(bǔ)充了明示同意作為不受自動(dòng)化決定的例外;并在第15條數(shù)據(jù)主體有權(quán)表達(dá)觀點(diǎn)之外,增加了對(duì)決定提出異議的權(quán)利,將二者概括為獲得人為干預(yù)的權(quán)利。這主要是機(jī)器學(xué)習(xí)算法的動(dòng)態(tài)學(xué)習(xí)程度輸出結(jié)果不確定,人類難以有效監(jiān)督,而人工標(biāo)簽等歧視性輸入變量,也有導(dǎo)致算法偏見潛在風(fēng)險(xiǎn)??梢姡惴ń忉寵?quán)本質(zhì)是一種基于基本人權(quán)而衍生的意志自決權(quán)和受到公平對(duì)待的權(quán)利。有學(xué)者僅以第71條來(lái)理解算法解釋權(quán),也有學(xué)者將正式條文的第13條第2款f項(xiàng)和第14條第2款g項(xiàng)的算法邏輯、數(shù)據(jù)處理重要性和后果的告知義務(wù)看作解釋權(quán),還有學(xué)者把第22條解讀為反自動(dòng)化決策權(quán)。誠(chéng)然,這幾個(gè)與自動(dòng)化決策算法有關(guān)的條文具有一定聯(lián)系,其區(qū)別于非自動(dòng)化決策的算法,但它們也有顯著不同。

  《一般數(shù)據(jù)保護(hù)條例》第13條和第14條的算法邏輯、數(shù)據(jù)處理重要性和后果的告知義務(wù),是一種未產(chǎn)生不公平后果的一般性的、為保護(hù)知情權(quán)的說(shuō)明義務(wù)。而第71條和第22條則是基于評(píng)估結(jié)果做出決定的保障措施及其例外條款。第71條和第22條均以將對(duì)數(shù)據(jù)主體產(chǎn)生法律后果或類似重大影響作為前提,并包含了該決定對(duì)雙方合同的達(dá)成和履行的必要性原則,或決定經(jīng)過(guò)數(shù)據(jù)主體明示同意的隱性條件??梢?,第71條承擔(dān)的更多是保護(hù)數(shù)據(jù)主體的權(quán)利的立法職能,而第22條則為自動(dòng)化決策算法設(shè)置了必要性和同意的例外條款。從二者的關(guān)系來(lái)看,根據(jù)第71條,即使在例外條款存在時(shí),數(shù)據(jù)主體依然享有解釋權(quán),僅應(yīng)受該決定的約束。如果將第71條第2段看成對(duì)算法透明原則進(jìn)行事先規(guī)定的話,則第71條第1段所指的,對(duì)評(píng)估后作出的決定做出解釋的算法解釋權(quán),其實(shí)是內(nèi)含于對(duì)抗自動(dòng)化決定算法的“適當(dāng)?shù)姆婪洞胧?rdquo;之一,是與明確告知相關(guān)信息并告知其有要求人工干預(yù)、表達(dá)觀點(diǎn)、異議權(quán)相并列的一種請(qǐng)求說(shuō)明的權(quán)利。

  它不同于算法透明原則項(xiàng)下的知情權(quán)。根據(jù)美國(guó)計(jì)算機(jī)協(xié)會(huì)2017年公布的算法治理七項(xiàng)原則,知情權(quán)是應(yīng)該披露算法設(shè)計(jì)、執(zhí)行、使用過(guò)程中可能存在的偏見和可能造成的潛在危害。顯然,它未必與自動(dòng)化決策和以個(gè)人敏感信息評(píng)估為前提的決定有關(guān)。而該解釋權(quán)不僅是一種被動(dòng)性防御的權(quán)利,可視為與表達(dá)觀點(diǎn)、提出異議并列的權(quán)利,從而成為獲得人為干預(yù)等替代選擇的基礎(chǔ)。若按這個(gè)邏輯進(jìn)行解釋,可將算法解釋權(quán)看成一種對(duì)合同履行行為符合雙方締約目的或合同基礎(chǔ)的說(shuō)明義務(wù)。由此,作為提供算法服務(wù)的一方主體,根據(jù)《民法典》第496條,對(duì)于對(duì)方有重大利害關(guān)系的條款,除參考?xì)W盟《一般數(shù)據(jù)保護(hù)條例》第13條、第14條進(jìn)行告知外,還負(fù)有法定的說(shuō)明義務(wù),否則對(duì)方可以主張?jiān)摋l款不構(gòu)成合同的內(nèi)容。故算法解釋權(quán)兼具算法服務(wù)者說(shuō)明義務(wù)與數(shù)據(jù)主體自決權(quán)的雙重屬性。

  《個(gè)人信息保護(hù)法(草案)》第25條未規(guī)定例外條款,這可能使算法提供者失去了在對(duì)方提出異議時(shí),根據(jù)必要性原則和明示同意進(jìn)行抗辯的可能性。更為重要的是,第25條將限縮了解釋權(quán)的適用場(chǎng)景,僅規(guī)定了產(chǎn)生重大影響,未規(guī)定產(chǎn)生法律效力,且將證明是否重大的舉證負(fù)擔(dān)分配給了數(shù)據(jù)主體。這對(duì)于數(shù)據(jù)主體行使解釋權(quán)十分不利。第54條要求信息處理者對(duì)自動(dòng)化決策進(jìn)行事前風(fēng)險(xiǎn)評(píng)估,并對(duì)處理情況進(jìn)行記錄,這是一種事前的行政性的算法風(fēng)險(xiǎn)評(píng)估措施,只能從算法設(shè)計(jì)角度起到一定的預(yù)防性作用,但不能與個(gè)人的具體解釋權(quán)的權(quán)利請(qǐng)求相結(jié)合,仍難以實(shí)質(zhì)上成為主張算法服務(wù)提供者進(jìn)行人工干預(yù),或提供不針對(duì)個(gè)人特征的選項(xiàng)的條件。盡管第25條第2款規(guī)定了算法服務(wù)提供者進(jìn)行商業(yè)營(yíng)銷、信息推送時(shí),提供無(wú)個(gè)人特征選項(xiàng)的義務(wù),但信息推送服務(wù)以外的人工干預(yù)可能性很難通過(guò)對(duì)該款的擴(kuò)張解釋,或根據(jù)第54條的算法評(píng)估來(lái)實(shí)現(xiàn)。

 

  (作者單位:北京化工大學(xué)法律系)