【ZiDongHua 之人文化天下收錄關(guān)鍵詞: 徐偉琨 自動化行政 人工智能
 
  徐偉琨|自動化行政中相對人算法決策拒絕權(quán)的實現(xiàn)路徑
 
  徐偉琨
 
  廣西民族大學(xué)法學(xué)院碩士研究生
 
  要目
 
  一、問題的提出
 
  二、算法決策應(yīng)用于自動化行政面臨的現(xiàn)實問題三、自動化行政中相對人免受算法決策法律保護(hù)的既有路徑及反思四、自動化行政中算法決策拒絕權(quán)的實現(xiàn)路徑
 
 
  人工智能技術(shù)嵌入政府行政管理活動中,互動促成“自動化行政”的誕生。自動化行政通過算法決策程序處理海量數(shù)據(jù)并作出替代性決策來優(yōu)化行政效能。算法正在逐步超越工具角色,成為執(zhí)行資源配置的基本準(zhǔn)則,但算法歧視、算法偏差、算法“黑箱”等固有局限侵蝕相對人的知情權(quán)、聽證權(quán)、救濟(jì)權(quán)等程序權(quán)利,對傳統(tǒng)行政正當(dāng)程序發(fā)起挑戰(zhàn),造成“權(quán)力——權(quán)利”格局的嚴(yán)重失衡,相對人算法決策拒絕權(quán)的構(gòu)建變得尤為重要。通過剖析當(dāng)前個人免受算法決策既有路徑發(fā)現(xiàn),禁令路徑和權(quán)利路徑兩種路徑在保護(hù)目標(biāo)、方式、限度等方面截然不同,在一定程度上兩種路徑都忽視了相對人個人利益和公共利益之間的平衡。為保障相對人在自動化行政中權(quán)利的實現(xiàn),必須從地位厘定、立法跟進(jìn)、程序保障、責(zé)任倒追角度出發(fā),全方面構(gòu)建行政法意義上的算法決策拒絕權(quán)實現(xiàn)路徑。
 
 
 
  一、問題的提出
 
  隨著圖像識別等人工智能技術(shù)的發(fā)展,算法決策應(yīng)用場景得到了極大的提升和拓展。2022年1月,國務(wù)院辦公廳印發(fā)了《“十四五”數(shù)字經(jīng)濟(jì)發(fā)展規(guī)劃》,明確要求“加快構(gòu)建算力、算法、數(shù)據(jù)、應(yīng)用資源協(xié)同的全國一體化大數(shù)據(jù)中心體系”。這為算法決策嵌入政府公共行政提供了有力支持和方向指引。
 
  自動化行政,系人工智能技術(shù)在行政機關(guān)日常行政活動中的具體應(yīng)用。在“算法時代即將來臨”的背景下,行政機關(guān)借助算法決策深度學(xué)習(xí)、大數(shù)據(jù)分析等技術(shù)以輔助行政裁量、預(yù)測調(diào)配資源等行政活動。有別于外生技術(shù)在政府活動中移植應(yīng)用的電子政務(wù)時期,算法決策在行政領(lǐng)域的應(yīng)用是在數(shù)字技術(shù)與政府體系深層次融合適應(yīng)數(shù)字政府時期技術(shù)應(yīng)用的進(jìn)一步發(fā)展,算法在不斷超越工具角色,逐漸成為執(zhí)行資源配置的基本準(zhǔn)則。然而,算法決策本身具有的內(nèi)生性風(fēng)險以及同傳統(tǒng)行政正當(dāng)程序相背離的風(fēng)險最終會影響到自動化行政決策的準(zhǔn)確性,進(jìn)而對行政相對人合法權(quán)益造成損害。
 
  為了應(yīng)對算法決策所引發(fā)的風(fēng)險,諸多國家或地區(qū)都對算法決策進(jìn)行了法律規(guī)制,如歐盟通用數(shù)據(jù)保護(hù)條例(General Data Protection Regulation,以下簡稱GDPR)第22條第1款規(guī)定了數(shù)據(jù)主體享有“反自動化決策權(quán)”,即數(shù)據(jù)主體在特定情形下,對其有關(guān)的個人數(shù)據(jù)處理與分析享有拒絕權(quán)。我國個人信息保護(hù)法第24條第3款明確了“自動化決策拒絕權(quán)”的請求權(quán)基礎(chǔ),該條款同樣適用于自動化行政領(lǐng)域,但在權(quán)利的實現(xiàn)上缺乏制度支持、程序保障等困境。
 
  行政法圍繞具體行政行為對行政問責(zé)和相對人權(quán)益保護(hù)提供了框架,所建構(gòu)的相關(guān)原則和程序是由人作出決策為預(yù)設(shè)前提而非計算機。在以算法決策為中心的自動化行政背景下,由計算機作出行政決策與傳統(tǒng)行政法上的原則和程序不相兼容,那么本文所提出的問題是:算法決策應(yīng)用于自動化行政對行政程序法治帶來了怎樣的挑戰(zhàn)?相對人參與自動化行政時,其權(quán)利如何得到實現(xiàn)與保障才能回應(yīng)這樣的挑戰(zhàn)?基于此,本文首先對當(dāng)下算法決策應(yīng)用于自動化行政面臨的主要問題進(jìn)行分析;其次,對目前國際上主流的免受算法決策法律保護(hù)的兩條路徑進(jìn)行闡釋并反思;最后,在充分考慮相對人利益和公共利益平衡基礎(chǔ)上,構(gòu)建自動化行政領(lǐng)域科學(xué)可行的算法決策拒絕權(quán)實現(xiàn)路徑,以提升算法決策的正當(dāng)性和自動化行政的可靠性。
 
  二、算法決策應(yīng)用于自動化行政面臨的現(xiàn)實問題一方面,算法決策是基于算法和計算機技術(shù)收集整理數(shù)據(jù),并在此基礎(chǔ)上通過深度學(xué)習(xí)或神經(jīng)網(wǎng)絡(luò)等技術(shù)處理分析相關(guān)數(shù)據(jù),然后作出決策的活動??梢?,算法決策排除了人為干預(yù),自動分析、評估數(shù)據(jù)主體各項情況,成為決策的主體。但算法決策終究是通過算法和計算機技術(shù)相結(jié)合建構(gòu)起的一套程序,本身就具有算法設(shè)計者的印記,因此存在設(shè)計者主觀傾向甚至歧視的可能性,所作出決策的過程也并非絕對中立和客觀。另一方面,上文提到傳統(tǒng)行政程序的建構(gòu)是以人的行為出發(fā)并非機器,算法決策的自發(fā)性與傳統(tǒng)行政程序產(chǎn)生沖突。金無足赤,算法基于海量數(shù)據(jù)處理和運算效率優(yōu)勢,幫助政府提高行政效能,但算法決策簡化了行政程序,以內(nèi)部決策參與到行政活動中,對行政正當(dāng)程序發(fā)起挑戰(zhàn),影響相對人知情權(quán)、聽證權(quán)、救濟(jì)權(quán)等程序權(quán)利的實現(xiàn),導(dǎo)致行政權(quán)力增強與相對人權(quán)利式微的失衡局面,產(chǎn)生算法決策在自動化行政領(lǐng)域應(yīng)用的現(xiàn)實問題。
 
  算法決策應(yīng)用于自動化行政存在的障礙
 
  任何一項技術(shù)都無法確保絕對的準(zhǔn)確和安全,同樣,算法決策技術(shù)即便在不斷發(fā)展和完善的現(xiàn)如今,其準(zhǔn)確性和可靠性仍然存在問題,這也是算法決策應(yīng)用于自動化行政陷入質(zhì)疑危機的內(nèi)在原因。
 
 
  1.算法歧視導(dǎo)致決策公平性缺失
 
  算法決策是計算機程序的一種,依賴于設(shè)計者提前將既定規(guī)則編寫進(jìn)代碼。一方面,算法的設(shè)計、目的、標(biāo)準(zhǔn)、數(shù)據(jù)處理等也有賴于設(shè)計者、開發(fā)者主觀選擇,他們可能會將偏見嵌入算法系統(tǒng),或者疏忽某些重要的指標(biāo),這都會對算法決策的公平性產(chǎn)生影響,造成結(jié)果偏差。另一方面,當(dāng)編程人員將既定規(guī)則寫進(jìn)代碼時,不可避免會對規(guī)則進(jìn)行調(diào)整,但對這一環(huán)節(jié),公眾、政府人員、法官無從知曉,算法決策規(guī)則的透明性、準(zhǔn)確性無法被審查。如果規(guī)則在編譯過程中被過度解讀,甚至錯誤解讀,亦會導(dǎo)致算法決策結(jié)果偏差,造成決策不公。更重要的是,算法并不具有能力自主排除歧視,反而傾向于將歧視固化甚至放大,使歧視長存于算法決策中。究其原因,算法是用過去預(yù)測未來,而過去的歧視在算法中鞏固并在未來得到加強,因為錯誤的輸入得到的只會是錯誤的輸出,最終形成“自我實現(xiàn)的歧視性反饋循環(huán)”。在這種情形下,以算法決策為中心的自動化行政也會遭受到算法歧視導(dǎo)致決策公平性缺失的現(xiàn)實困境,其運作結(jié)果的準(zhǔn)確性也難以保障。
 
 
  2.數(shù)據(jù)的有效性、準(zhǔn)確性偏差影響決策的準(zhǔn)確性由于算法是深度學(xué)習(xí)的產(chǎn)物,數(shù)據(jù)的優(yōu)劣對算法決策的準(zhǔn)確性起著著決定性因素,以數(shù)據(jù)采集為關(guān)鍵步驟的算法所作出的決策不可避免地受到數(shù)據(jù)質(zhì)量的影響。數(shù)據(jù)樣本質(zhì)量越高,算法決策的準(zhǔn)確性也相應(yīng)提高。相反,當(dāng)數(shù)據(jù)樣本失準(zhǔn)、不全,或缺乏代表性、均衡性,算法決策的結(jié)果很可能存在不同程度的歧視。算法決策的設(shè)計者可以利用數(shù)據(jù)對目標(biāo)人群進(jìn)行分類,從而脫離各種反歧視要求的約束。數(shù)據(jù)采集和記錄的過程中存在的歸類、標(biāo)記等偏差也會產(chǎn)生算法歧視的結(jié)果,同樣也會成為算法決策準(zhǔn)確性保障的障礙。
 
 
  3.算法決策本身具有不透明性
 
  由于算法技術(shù)具有門檻,導(dǎo)致信息不對稱,很多時候出現(xiàn)問題都難以追責(zé),算法創(chuàng)造的信息優(yōu)勢形成強大的算法權(quán)力,也引發(fā)了社會公眾的擔(dān)憂。算法決策固有的不透明特性形成了算法“黑箱”,即人們無法感知和理解算法自主作出決策的過程和結(jié)果。有學(xué)者將算法的不透明性分為三種:(1)故意不透明,是指算法決策的內(nèi)部運作過程被刻意隱藏,可能是基于商業(yè)秘密,也可能是基于操控他人;(2)內(nèi)在不透明,是指算法本身具有難以向公眾解釋的技術(shù)壁壘,隨著算法深度學(xué)習(xí)和大數(shù)據(jù)分析等技術(shù)發(fā)展使得人類干預(yù)越發(fā)捉襟見肘,即便是專業(yè)技術(shù)人員也難以全面解釋算法決策過程;(3)外行不透明,是指算法技術(shù)中的一些即便是可以被專業(yè)技術(shù)人員解釋的部分,社會公眾也難以完全理解。算法決策的不透明特性利用不對稱信息在算法主體與受眾之間產(chǎn)生“規(guī)訓(xùn)的權(quán)力”,成為滋生算法歧視的“溫床”。
 
  算法決策與行政正當(dāng)程序制度的沖突
 
  行政正當(dāng)程序是行政法的基本要求,其要義在于,作出任何使他人遭受不利影響的行使權(quán)力的決定前,應(yīng)當(dāng)聽取當(dāng)事人的意見。正當(dāng)程序是裁決爭端的基本原則和最低的公正標(biāo)準(zhǔn),是現(xiàn)代民主政治的表現(xiàn)形式之一。行政正當(dāng)程序基本理念已經(jīng)成為檢驗權(quán)力運行的重要指標(biāo),在平衡“權(quán)力——權(quán)利”格局中發(fā)揮著重要作用。算法決策應(yīng)用于自動化行政意味著行政機關(guān)可以憑借數(shù)據(jù)和計算機程序進(jìn)行簡單重復(fù)流水線工作達(dá)到降本增效的效果。這種排除人工干預(yù)的完全自動化決策對傳統(tǒng)行政程序帶來了諸多挑戰(zhàn),如:(1)有別于一般程序規(guī)定,作出行政行為不需要領(lǐng)導(dǎo)簽字;(2)不需要說明理由;(3)不需要提前組織聽證。正因為自動化行政行為免去了聽證、調(diào)查或閱卷程序,導(dǎo)致當(dāng)事人的程序性權(quán)利實質(zhì)性限縮。在自動化行政中,算法決策模塊化、程序化處理行政事務(wù),在提升行政效率的同時卻有著不利于個案正義實現(xiàn)的隱患,再加上算法本身具有的“黑箱”特征,使得算法決策應(yīng)用于自動化行政面臨質(zhì)疑。
 
 
  1.算法不透明影響相對人的知情權(quán)
 
  在知情權(quán)體系中,行政知情權(quán)是公民政治權(quán)利的基礎(chǔ)。所謂行政知情權(quán),是指公民依法通過各種途徑和形式獲取行政活動宗旨、目的、原則、依據(jù)、程序及其結(jié)果的權(quán)利。該項權(quán)利目的在于當(dāng)行政信息涉及相對人切身利益時,相對人用以打破與行政主體之間信息不對稱狀態(tài),從而實質(zhì)上起到防止行政專斷和保障正當(dāng)程序的作用。行政知情權(quán)的實現(xiàn),一方面有助于相對人保障自己的權(quán)利,另一方面也是人民群眾管理國家事務(wù)權(quán)利實現(xiàn)的重要方式之一。然而,在算法不透明的情況下,相對人因與行政主體之間基于信息不對稱而建立起的“數(shù)字鴻溝”難以參與行政活動,更談不上對設(shè)計自身利益的具體行政行為提出異議。因此,如何解決算法決策應(yīng)用于自動化行政情形下相對人知情權(quán)實現(xiàn)成為即將面臨的現(xiàn)實問題。且先不論行政主體公開復(fù)雜、專業(yè)的自動化決策程序的運作流程、決策依據(jù)在實踐中操作極其困難。即便是公開了,缺乏專業(yè)技術(shù)知識的相對人無法理解,也難以實現(xiàn)知情權(quán)的保障。在傳統(tǒng)行政程序中,行政主體與相對人通過簡單的面對面交流,用通俗易懂的語言對決策的依據(jù)和過程進(jìn)行說理,這在自動化行政中,解釋冰冷的算法決策難以實現(xiàn)。此外,當(dāng)下一些行政機關(guān)內(nèi)部因缺乏算法專業(yè)技術(shù)人員無法滿足自動化行政需求,而將算法決策的研發(fā)和設(shè)計外包給市場上投入算法技術(shù)研發(fā)更多以及掌握專業(yè)技術(shù)人員豐富的私營企業(yè)的情況不在少數(shù)。這些企業(yè)往往會以商業(yè)秘密為由拒絕向他人公開自己所設(shè)計的程序代碼,這也讓相對人的知情權(quán)實現(xiàn)進(jìn)一步受阻。
 
 
  2.技術(shù)壟斷架空相對人的聽證權(quán)
 
  行政聽證權(quán)的實現(xiàn)是行政正當(dāng)程序中公眾參與原則遵循的程序保障,指行政機關(guān)作出影響相對人權(quán)利義務(wù)決定前,相對人或利害關(guān)系人享有的就有關(guān)事實或法律問題表達(dá)意見、陳述辯解的權(quán)利。行政聽證權(quán)的有效實現(xiàn)要求行政主體必須要設(shè)置專門的程序確保相對人能夠參與,并且保障參與各方信息對稱。然而,聽證權(quán)的實現(xiàn)受到了私營企業(yè)技術(shù)壟斷的阻礙。技術(shù)壟斷變相回避了公眾參與的聽證環(huán)節(jié),公眾沒有機會在行政活動中主張自身權(quán)利,更無法為行政正當(dāng)提供程序性保障。
 
 
  3.算法“黑箱”侵蝕相對人的救濟(jì)權(quán)
 
  行政法賦予了相對人以行政復(fù)議和行政訴訟提起權(quán)為內(nèi)容的救濟(jì)權(quán),然而,算法決策不透明特性所形成的算法“黑箱”使相對人無法理解或難以理解算法自主作出決策的原因,最終導(dǎo)致救濟(jì)權(quán)難以實現(xiàn)。正是算法決策的“黑箱”特征導(dǎo)致相對人反制能力的弱化。不僅如此,算法決策系統(tǒng)出錯所涉及的當(dāng)事人群體范圍更廣,情形更為復(fù)雜,此時傳統(tǒng)行政救濟(jì)措施就力有不逮。作出細(xì)微的算法偏差讓相對人難以認(rèn)識到具體行政行為的違法性,只能成為被迫接受錯誤算法決策的受害者。再者,由于算法決策程序化、批量化處理行政事務(wù),錯誤決策往往涉及人數(shù)眾多,損害可能很大,行政正當(dāng)程序更加難以保證。
 
  三、自動化行政中相對人免受算法決策法律保護(hù)的既有路徑及反思我國行政訴訟法賦予了行政相對人拒絕權(quán),規(guī)定行政行為作出主體、依據(jù)、內(nèi)容有重大且明顯違法情形的,相對人可以行使拒絕權(quán),請求法院確認(rèn)該行政行為自始不生效。由此看出,相對人主動行使行政拒絕權(quán)的前提是對“作出決策的行政主體是否具有資格、作出決策的依據(jù)是否合法、重大且明顯違法情形是否存在”知情。但在算法決策嵌入行政活動時,算法成為作出決策的主體,并且由于算法的不透明特性致使相對人不能得知或無法理解算法決策作出的依據(jù)以及運作規(guī)則,這讓行政拒絕權(quán)難以實現(xiàn)。因此,探索相對人免受算法決策法律保護(hù)新路徑,使自動化行政中新型行政主體與相對人的“權(quán)力-權(quán)利”格局再平衡變得尤為重要。在實踐中,各國也產(chǎn)生了大量個人免受算法決策判例。歸納總結(jié),可以將這些保護(hù)措施分為禁令路徑和權(quán)利路徑。
 
  禁令路徑
 
  所謂禁令路徑,是指除有合法處理基礎(chǔ)外,禁止對數(shù)據(jù)主體使用算法決策。該路徑對算法決策采取了審慎使用的態(tài)度,以禁止使用為原則,以有限使用為例外。例如1998年比利時數(shù)據(jù)保護(hù)法和2009年德國聯(lián)邦數(shù)據(jù)法均采用禁令路徑。歐盟GDPR第22條中雖然列出了三種可以使用算法決策的例外情形,但對數(shù)據(jù)主體的自動化決策仍被普遍禁止。深度剖析,禁令路徑具有以下特點:第一,這種路徑側(cè)重于法律的事前規(guī)制理念,即在立法階段就要求禁止使用自動化決策技術(shù)或者設(shè)置嚴(yán)格的使用條件。第二,這種路徑傾向于保護(hù)數(shù)據(jù)主體一方的利益。歐盟GDPR規(guī)定對數(shù)據(jù)主體使用完全自動化決策必須事先有法律授權(quán)或合同約定為基礎(chǔ),并且要數(shù)據(jù)主體明確同意。第三,這種路徑目的在于解決個體怠于履行權(quán)利或行權(quán)力量弱小的困境。在實踐中數(shù)據(jù)控制者與數(shù)據(jù)主體往往實力懸殊,禁令路徑有利于通過約束數(shù)據(jù)控制者,達(dá)到數(shù)據(jù)主體權(quán)益獲得實質(zhì)保護(hù)的最終目的。
 
     權(quán)利路徑
 
  所謂權(quán)利路徑,是指法律賦予數(shù)據(jù)主體免受算法決策權(quán),數(shù)據(jù)主體可以行使該權(quán)利保障自身權(quán)益。該路徑則對算法決策采取寬容態(tài)度,更傾向于把接受自動化決策的決定權(quán)交給數(shù)據(jù)主體。我國個人信息保護(hù)法便采取了權(quán)利路徑對個人免受算法決策法律保護(hù)體系進(jìn)行構(gòu)建,相較歐盟GDPR第22條第1款“有權(quán)不受約束”這樣的模糊表述而言,個人信息保護(hù)法第24條第3款“有權(quán)拒絕”更為直觀地表現(xiàn)為一項權(quán)利。深度剖析,權(quán)利路徑具有以下特點:第一,這種路徑側(cè)重于法律的事后規(guī)制理念。個人信息保護(hù)法規(guī)定算法決策拒絕權(quán)行使的前提是該決策是“對個人權(quán)益有重大影響的決定”,側(cè)面體現(xiàn)了權(quán)利保護(hù)的事后性。第二,這種路徑傾向于鼓勵算法決策技術(shù)的利用。數(shù)據(jù)控制者只要不違反法律強制性規(guī)定,就可以使用算法對數(shù)據(jù)主體進(jìn)行自動化決策。第三,這種路徑目的在于在保護(hù)數(shù)據(jù)主體權(quán)益的同時平衡人工智能科技的發(fā)展。
 
  對兩種路徑的反思
 
  基于以上分析不難看出,禁令路徑和權(quán)利路徑均為個人免受算法決策提供了法律保護(hù),均認(rèn)同法律介入算法決策程序的正當(dāng)性。但兩種路徑的保護(hù)目標(biāo)、方式、限度等方面截然不同。禁令路徑側(cè)重于從數(shù)據(jù)主體角度出發(fā),圍繞個人權(quán)益保護(hù)構(gòu)建以事前規(guī)制為主的算法決策規(guī)制體系。權(quán)利進(jìn)路則從數(shù)字產(chǎn)業(yè)和國民經(jīng)濟(jì)角度出發(fā),在尊重個體主觀意愿的前提下,構(gòu)建以事后規(guī)制為主的算法決策規(guī)制體系。雖然兩種路徑都提供了免受算法決策法律保護(hù),但仍有問題存在。重于保護(hù)數(shù)據(jù)主體權(quán)益的禁令路徑忽略了算法決策技術(shù)被廣泛應(yīng)用在當(dāng)前社會的客觀現(xiàn)實。在人工智能技術(shù)迅猛發(fā)展的當(dāng)下,禁止使用算法決策顯然會阻礙人工智能產(chǎn)業(yè)的良性發(fā)展。而權(quán)利路徑雖然在尊重數(shù)據(jù)主體主觀意愿的基礎(chǔ)上平衡了人工智能產(chǎn)業(yè)發(fā)展,但忽視了算法技術(shù)的自身局限性以及對正當(dāng)程序的沖擊。尤其是在自動化行政場景下,算法不透明、技術(shù)壟斷等原因給以賦權(quán)救濟(jì)為核心的傳統(tǒng)法律制度帶來了功能性危機。因此,構(gòu)建自動化行政中算法決策拒絕權(quán)的實現(xiàn)路徑時不能簡單采用禁令路徑或權(quán)利路徑,應(yīng)當(dāng)從人工智能行業(yè)發(fā)展以及相對人權(quán)益保障衡平角度出發(fā),構(gòu)建一套遵循行政正當(dāng)程序、保障公眾參與原則、提高相對人救濟(jì)能力的算法決策拒絕權(quán)實現(xiàn)機制。
 
  四、自動化行政中算法決策拒絕權(quán)的實現(xiàn)路徑
 
  自動化行政是現(xiàn)代人工智能技術(shù)與政府行政管理的結(jié)晶,是科學(xué)技術(shù)融合發(fā)展應(yīng)用綜合作用的體現(xiàn),正日益成為社會管理的新型力量。從自動化行政發(fā)展與相對人權(quán)益保護(hù)平衡角度出發(fā),尋求構(gòu)建個人免受算法決策法律保護(hù)體系新方式變得尤為重要。因此,融合目前現(xiàn)有的禁令路徑和權(quán)利路徑,結(jié)合自動化行政實際,形成一套多元的貫穿于事前、事中、事后全過程的相對人算法決策拒絕權(quán)制度才能解決當(dāng)下算法決策應(yīng)用于自動化行政產(chǎn)生的現(xiàn)實問題。在構(gòu)建相對人算法決策拒絕權(quán)制度法律框架下,至少應(yīng)當(dāng)從地位厘定、立法跟進(jìn)、程序保障和責(zé)任倒追角度出發(fā)。
 
  地位厘定:明確行政機關(guān)主體地位與算法工具屬性如前文所述,算法決策正在逐漸超越工具屬性,有超越、替代行政機關(guān)成為新型決策主體的趨勢。算法決策自身具有的局限性在自動化行政中被放大,逐步侵蝕相對人的各項權(quán)利,因此重申行政機關(guān)主體地位和明確算法決策技術(shù)工具屬性是實現(xiàn)相對人算法決策拒絕權(quán)的首要任務(wù)。
 
 
 
  1.明確行政機關(guān)的主體地位
 
  算法歧視造成的決策不公仍是當(dāng)下難以解決的現(xiàn)實問題之一,解決公權(quán)力中算法歧視問題的關(guān)鍵不在于通過技術(shù)手段的革新避免或根治算法中的歧視性因素,在于如何從權(quán)力層面防止算法歧視直接作用于相對人。換句話說,行政主體必須直接介入算法決策過程之中并且掌握對算法決策的質(zhì)疑權(quán)和否定權(quán),防止歧視性算法決策上升為算法權(quán)力,就能預(yù)先防止算法歧視對相對人權(quán)益的侵害。歐洲委員會以及歐盟專家組在針對算法決策應(yīng)用進(jìn)行討論時采用了“人在環(huán)路”的設(shè)計理念,強調(diào)算法決策應(yīng)用下的場景中也不能完全切斷人與人之間的聯(lián)系。隨著歐盟路徑在國際上影響力的擴(kuò)大,“人在環(huán)路”理念也逐漸體現(xiàn)在各國立法之中。“人在環(huán)路”理念要求數(shù)據(jù)控制者必須參與進(jìn)算法決策的過程中進(jìn)行有效干預(yù),解決算法決策自身存在的局限性。因此,基于“人在環(huán)路”理念必須明確行政機關(guān)主體地位,即行政主體人工干預(yù)算法決策以彌補算法決策技術(shù)的局限性。
 
 
  2.明確算法決策技術(shù)的工具屬性
 
  算法決策技術(shù)作為輔助工具在自動化行政應(yīng)用中呈現(xiàn)多種樣態(tài),例如在部分自動化行政中,算法決策通過收集和處理海量數(shù)據(jù)進(jìn)行分析得出初步結(jié)論供行政機關(guān)作出最終決策。在完全自動化行政中,算法決策技術(shù)雖然可以全過程自主處理,但相應(yīng)的行政主管機關(guān)仍應(yīng)保持監(jiān)督和否定的能力。因此,不論是算法決策技術(shù)輔助決策還是自主決策,都應(yīng)明確其輔助工具地位。
 
  立法跟進(jìn):構(gòu)建行政法上的算法決策拒絕權(quán)制度在傳統(tǒng)行政中,相對人可以基于自身判斷決定是否申請行政主體回避,以避免因行政主體個人偏好以及利益相關(guān)所帶來的行政不公。例如行政許可法第48條第3款和行政處罰法第43條均對“申請回避”作出了規(guī)定。算法設(shè)計者、開發(fā)者本身帶有的偏好以及數(shù)據(jù)樣本偏差所帶來的算法歧視等因素也能成為相對人申請回避的原因,但算法決策的不透明所產(chǎn)生的算法“黑箱”令相對人難以進(jìn)行回避判斷,導(dǎo)致在自動化行政中,相對人申請回避制度略顯滯后。因此,為了維護(hù)相對人在自動化行政中主體地位,保證自動化行政符合行政程序正當(dāng)性要求,構(gòu)建自動化行政中相對人對算法決策的回避制度,即算法決策拒絕權(quán)制度。上文所述的自動化行政中相對人免受算法決策法律保護(hù)的禁令路徑和權(quán)利路徑均有其不足之處,需要引入平衡論理念,在充分考慮相對人個人利益和公共利益之間平衡的基礎(chǔ)上,按場景劃分,在立法層面上構(gòu)建相對人算法決策拒絕權(quán)分級實施路徑,采取相對實用主義來設(shè)計制度解決方案。當(dāng)一項權(quán)利對相對人來說極為重要時,也意味著這項權(quán)利有著很強的人身關(guān)聯(lián)性,法律就應(yīng)當(dāng)防止算法決策對相對人的侵害。相反,當(dāng)算法決策應(yīng)用在某些場景中可以帶來更大的社會效益,在符合比例原則的前提下,可以對相對人行使算法決策拒絕權(quán)作出限制。
 
  近年來,實務(wù)界也在探究算法決策拒絕權(quán)分級實施路徑的實現(xiàn)辦法。加拿大在2019年頒布《自動化決策指令》,從個人權(quán)利、社會治理、社會經(jīng)濟(jì)發(fā)展、環(huán)境生態(tài)的可持續(xù)性等幾個場景出發(fā)將算法決策后果劃分為可逆且暫時的影響、可逆的短期影響、難以逆轉(zhuǎn)的持續(xù)性影響和不可逆的永久性影響四類,從而對算法決策作出規(guī)制,這一思路對我國制定該規(guī)則有一定的參考價值,但仍需進(jìn)一步深化。本文將算法決策拒絕權(quán)分級實施路徑按場景分為三類。第一類,在算法作出決策會對相對人生命權(quán)、人身自由等重大權(quán)利或?qū)ι鐣?jīng)濟(jì)發(fā)展、生態(tài)環(huán)境的可持續(xù)性產(chǎn)生重大影響的場景中,所謂重大影響是指該決策可能產(chǎn)生不可逆轉(zhuǎn)或難以逆轉(zhuǎn)的永久性或長期影響,此時相對人有權(quán)直接行使算法決策拒絕權(quán)。對生命權(quán)、人身自由等權(quán)利的處分和限制必須要有人的參與,作出這種決策不僅要嚴(yán)格依據(jù)法律,還要結(jié)合情理,要求決策者具有高度的同理心,而算法程序難以作出人情國法相統(tǒng)一的決策。此外,對社會經(jīng)濟(jì)發(fā)展、生態(tài)環(huán)境的可持續(xù)性產(chǎn)生重大影響的事項復(fù)雜且涉及利益廣泛,稍有不慎就產(chǎn)生不可逆轉(zhuǎn)的后果。第二類,對相對人權(quán)利或者社會治理產(chǎn)生一般影響,所謂一般影響是指該決策可能產(chǎn)生可以逆轉(zhuǎn)的短期影響,此時相對人可以有條件地行使算法決策拒絕權(quán)。即相對人在行政主體履行告知和解釋說明義務(wù)之后,可以基于自身判斷通過申請的方式行使拒絕權(quán)。第三類,對于不涉及價值判斷的行政事宜,如事實性問題識別、證據(jù)固定等,對相對人的相關(guān)權(quán)益造成的影響較小,并且可以很大程度上提高行政事務(wù)的處理速度,此時相對人的權(quán)利應(yīng)讓渡于公共利益的實現(xiàn)。在個案中相對人因此受到損害的,仍可以通過行政復(fù)議或行政訴訟等傳統(tǒng)方式獲得救濟(jì)。
 
  程序保障:深化自動化行政行為的正當(dāng)程序要求行政程序的正當(dāng)性是推動國家法治發(fā)展和保障公民合法權(quán)益的前提,算法決策應(yīng)用在自動化行政中依然要符合正當(dāng)程序的要求。如前所述,算法的不透明性、算法決策技術(shù)壟斷以及算法“黑箱”等因素很大程度上阻礙相對人權(quán)利的實現(xiàn),傳統(tǒng)行政正當(dāng)程序的要求已經(jīng)束縛不了算法決策技術(shù)。因此,與時俱進(jìn)地深化自動化行政行為的正當(dāng)程序要求以規(guī)制算法決策應(yīng)用是重中之重。
 
 
  1.公開透明,打破算法“黑箱”,保障行政相對人的知情權(quán)算法“黑箱”所導(dǎo)致的關(guān)鍵問題就是公眾無法觀察理解算法的內(nèi)容和運行程序,打破算法“黑箱”的首要條件就是主動公開,推動算法決策技術(shù)的透明化。從過程角度來看,算法決策技術(shù)嵌入行政活動是一個動態(tài)的、持續(xù)性的過程,構(gòu)建公開透明的政府算法治理形態(tài)必須要實現(xiàn)全過程的算法透明。第一,算法決策治理的透明化。它包括以下兩個方面:一是算法決策治理的政策透明。算法決策技術(shù)與政府管理活動的耦合所產(chǎn)生的新風(fēng)險促使政府算法決策治理政策出臺。政府在制定政策時應(yīng)考慮透明性價值,主動公開算法決策治理政策制定過程及成果,讓公眾了解政府算法決策治理中應(yīng)遵守的權(quán)責(zé)規(guī)范。二是算法決策技術(shù)委托透明化。如上文所述,算法決策技術(shù)的專業(yè)性使得政府傾向于委托專業(yè)技術(shù)企業(yè)開發(fā)設(shè)計,在此過程中,政府必須公開所委托企業(yè)的名稱、資質(zhì)等信息,方便公眾對該企業(yè)了解和監(jiān)督。第二,算法決策研發(fā)的透明化。算法程序設(shè)計、數(shù)據(jù)采集等技術(shù)過程構(gòu)成了算法決策研發(fā),該研發(fā)的透明化也應(yīng)按過程展開。一是算法程序設(shè)計透明化。算法程序設(shè)計是算法決策運行程序的規(guī)劃,具體包括決策主體、目的、流程、結(jié)果預(yù)期等,公布這些信息也有利于公眾對算法決策的了解和監(jiān)督。二是政府?dāng)?shù)據(jù)采集的透明化。政府必須保障公眾對自身數(shù)據(jù)如何被采集和利用的知情權(quán),向社會公開算法決策中的數(shù)據(jù)來源、類型和安全管理規(guī)范。第三,算法決策應(yīng)用的透明化。一方面,政府必須公開算法決策場景應(yīng)用及服務(wù)主體。算法決策技術(shù)嵌入稅務(wù)、交通、教育、健康等領(lǐng)域,其服務(wù)的主體、設(shè)施、規(guī)則、技術(shù)標(biāo)準(zhǔn)等信息應(yīng)當(dāng)被公眾所獲悉。另一方面,算法決策應(yīng)用的結(jié)果透明化。算法決策的結(jié)果往往關(guān)涉到個人的切身利益,必須向相對人公開,保障其知情權(quán)。
 
 
  2.聽取陳述、申辯,引入算法決策評估程序,保障行政相對人的聽證權(quán)算法程序所作出的決策也應(yīng)當(dāng)允許提出質(zhì)疑和挑戰(zhàn)。在當(dāng)下人工智能技術(shù)條件下,算法程序也會產(chǎn)生許多錯誤甚至讓人無法理解的決策,歧視性代碼、數(shù)據(jù)偏差等因素都會成為算法決策錯誤的原因。算法的“黑箱”特征讓相對人難以理解甚至知曉算法決策程序錯誤的原因,更重要的是,具有深度學(xué)習(xí)能力的算法程序會讓一個很小的錯誤在之后的決策程序中逐步放大。因此,必須深化自動化行政中的行政正當(dāng)程序要求,保障相對人聽取陳述、申辯的權(quán)利在算法時代也能順利實現(xiàn),必須允許相對人對算法程序所作出的決策提出質(zhì)疑挑戰(zhàn)。
 
  鑒于算法決策程序作出決策的整套流程運轉(zhuǎn)時間可能在毫秒甚至在微秒內(nèi),這意味著不存在采取事前聽證可能性,只有事后聽證才屬于算法決策應(yīng)用場景下的一般模式,這樣一來反而縮小了相對人聽證權(quán)的實現(xiàn)途徑。為了彌補相對人行政權(quán)的限縮,可以引入算法決策評估程序,事先預(yù)防算法決策可能帶來的風(fēng)險。所謂算法決策評估程序,是指對算法決策程序的有效性和準(zhǔn)確性進(jìn)行事先研判,排除有瑕疵的數(shù)據(jù)以及分析算法決策使用場景的可行性,之后結(jié)合比例原則對決策過程進(jìn)行風(fēng)險評估的一套流程。該評估程序結(jié)合比例原則可以按以下三種評估標(biāo)準(zhǔn)進(jìn)行判斷:第一,適當(dāng)性標(biāo)準(zhǔn)。主要是判斷算法決策程序是否能夠最大程度上降低歧視性代碼、數(shù)據(jù)偏差等因素的影響,是否能夠幫助政府實現(xiàn)預(yù)期目的;第二,必要性判斷。政府應(yīng)當(dāng)研判算法決策程序適用的必要性,選擇對相對人權(quán)益侵害最小的程序,最大程度上減小算法決策帶來的風(fēng)險;第三,平衡性判斷。對算法決策程序適用將會帶來的消極影響和積極影響進(jìn)行預(yù)測,只有后者明顯高于前者時,才投入使用。只有同時滿足以上三種評估標(biāo)準(zhǔn)的算法決策程序才能被投入使用,算法決策評估程序的引入也符合歐盟所采用的“人在環(huán)路”理念,采用人為干預(yù)的方式解決算法決策程序的局限性。
 
 
  3.說明理由,強調(diào)算法的可解釋性,保障行政相對人的救濟(jì)權(quán)算法決策程序公開透明十分重要,但是實現(xiàn)算法程序透明化僅僅只是創(chuàng)造了實現(xiàn)公眾參與算法決策程序的條件,算法透明化本身不是目的,是通往算法可理解化的階梯。前文所述,相對人由于算法的“黑箱”特征難以理解算法決策程序的運轉(zhuǎn)模式,行使算法決策拒絕權(quán)等救濟(jì)權(quán)難度增大,因此,需要強調(diào)算法的可解釋性,增強算法的可理解程度。個人信息保護(hù)法第24條第3款前半句規(guī)定了個人有要求算法決策使用者針對算法決策運行規(guī)則和邏輯進(jìn)行解釋的義務(wù),該項權(quán)利與算法決策拒絕權(quán)應(yīng)是并列的關(guān)系。該條款同樣適用于自動化行政場景下,也即相對人既可以選擇要求行政主體解釋算法決策程序,也可以選擇行使算法決策拒絕權(quán),這從某種程度上來說,增加了相對人行使救濟(jì)權(quán)的途徑。
 
  為保障自動化行政算法解釋規(guī)則的實現(xiàn),必須要從規(guī)則上構(gòu)建行政主體解釋算法決策程序的義務(wù)和解釋程序。首先,行政主體是算法決策程序解釋的直接承擔(dān)者,即便在算法外包的情況下,也不得以商業(yè)秘密為由來對抗相對人。其次,算法解釋規(guī)則的實現(xiàn)程序是:先由相對人對算法決策過程或結(jié)果提出異議,再由行政主體采取啟動事后監(jiān)督的模式對程序進(jìn)行解釋。行政主體應(yīng)對算法決策程序的輸入端和輸出端均進(jìn)行監(jiān)督并解釋。最后,行政主體應(yīng)當(dāng)提供算法決策程序的追蹤記錄,追蹤記錄中包含了算法決策的運轉(zhuǎn)規(guī)則和依據(jù),以及評估程序等數(shù)據(jù),確保算法決策程序具有可追溯性,也是算法解釋規(guī)則實現(xiàn)的重要保障。
 
        責(zé)任倒追:確立自動化行政算法決策的責(zé)任規(guī)則算法決策過程中的公開、告知、解釋說明、聽取陳述申辯等程序的不履行或不正當(dāng)履行以及錯誤決策后果均會引發(fā)責(zé)任承擔(dān)問題,但算法決策應(yīng)用于自動化行政帶來了巨大的問責(zé)漏洞,當(dāng)前的責(zé)任規(guī)則難以確定責(zé)任主體和劃分責(zé)任范圍。一方面,技術(shù)外包成為行政機關(guān)逃避責(zé)任承擔(dān)的借口。前文介紹過由于算法決策技術(shù)的復(fù)雜性和專業(yè)性,多數(shù)行政機關(guān)將其外包給一些技術(shù)性企業(yè)完成程序的開發(fā)與設(shè)計,在追責(zé)時,行政機關(guān)傾向于將責(zé)任推卸給企業(yè),甚至是算法技術(shù)本身。另一方面,技術(shù)壟斷成為追責(zé)時難以突破的“高墻”。企業(yè)往往會以“技術(shù)中立”或商業(yè)秘密等理由拒絕承擔(dān)算法決策過程中所應(yīng)當(dāng)承擔(dān)的各項責(zé)任?;诖?,法律應(yīng)當(dāng)對算法決策所產(chǎn)生的責(zé)任重新分配,確立自動化行政算法決策的責(zé)任規(guī)則,使其適應(yīng)算法時代的發(fā)展。
 
 
  1.明確算法決策技術(shù)外包情況下的責(zé)任主體界定在技術(shù)外包的背景下,極易發(fā)生責(zé)任主體界定模糊的情況,自動化行政算法決策責(zé)任規(guī)則的確立,首要任務(wù)是確定算法決策技術(shù)應(yīng)用的政府和算法決策技術(shù)開發(fā)的企業(yè)之間的責(zé)任關(guān)系,只有先正確界定責(zé)任主體才能劃清責(zé)任范圍。在實踐中,政府可以與企業(yè)協(xié)商共同研發(fā),也可以直接向企業(yè)采購成熟的技術(shù)試運行后便投入使用,事實上后者是政府更傾向于采用的方式方法,這樣可以將潛在的責(zé)任一并外包出去,達(dá)到責(zé)任轉(zhuǎn)移的目的,這一行為也被稱之為“算法卸責(zé)”。但“算法卸責(zé)”所引發(fā)的責(zé)任缺失和問責(zé)落空等的消極影響遭受到學(xué)界質(zhì)疑,有學(xué)者建議引入政府行為理論,并提出三個判斷標(biāo)準(zhǔn):第一,職能標(biāo)準(zhǔn)。當(dāng)算法決策完全承擔(dān)了傳統(tǒng)政府履行的職能時,程序的開發(fā)、設(shè)計者應(yīng)當(dāng)成為責(zé)任主體;第二,強制性標(biāo)準(zhǔn)。算法決策技術(shù)的開發(fā)、設(shè)計是否受到國家的強制性規(guī)定約束,若有強制性規(guī)定,便以此規(guī)定確定責(zé)任主體;第三,聯(lián)合參與標(biāo)準(zhǔn)。在算法決策程序開發(fā)與設(shè)計過程中,政府與企業(yè)的行為是否普遍地結(jié)合,結(jié)合則可視為共同行為者。以上三個判斷標(biāo)準(zhǔn)目的在于將影響政府決策的開發(fā)者、設(shè)計者界定為責(zé)任主體,政府也因此難以將責(zé)任完全推卸給企業(yè)。裴亞楠、馬顏昕等學(xué)者認(rèn)為算法決策行為法律意義上的主體仍然是公權(quán)力機關(guān),開發(fā)、涉及算法決策程序的企業(yè)只不過是起著便利公權(quán)力機關(guān)完成行政管理等事務(wù)的輔助作用。因此,在算法決策技術(shù)應(yīng)用于自動化行政的情況下,責(zé)任主體仍然應(yīng)以行政機關(guān)為主。當(dāng)然,要求政府承擔(dān)起算法決策技術(shù)外包情況下的責(zé)任還需要制定法律法規(guī),將算法決策技術(shù)應(yīng)用于自動化行政中的權(quán)責(zé)和義務(wù)明確界定。2.明確算法決策程序運轉(zhuǎn)過程中的責(zé)任范圍劃分責(zé)任主體界定之后,具體的責(zé)任范圍還需要明確劃分。第一,行政機關(guān)有實現(xiàn)算法決策程序公開透明,保障相對人知情權(quán)實現(xiàn)的義務(wù)。算法決策程序從一開始的設(shè)計、開發(fā)到最終的投入使用,行政機關(guān)應(yīng)保障其全過程的公開透明。第二,行政機關(guān)負(fù)有算法解釋責(zé)任,保障相對人救濟(jì)權(quán)的實現(xiàn)。算法的專業(yè)性和復(fù)雜性讓行政機關(guān)傾向于采用外包的形式開發(fā),但這并不意味著行政機關(guān)可以逃避解釋說明的義務(wù)。第三,行政機關(guān)負(fù)有算法決策程序評估、便利相對人在自動化行政中聽證權(quán)實現(xiàn)的責(zé)任。自動化行政對政機關(guān)履行事前、事中、事后監(jiān)督提出了更高程度的要求。第四,行政機關(guān)作為算法決策程序的直接責(zé)任主體,負(fù)有接受相對人算法決策拒絕權(quán)的責(zé)任。相對人拒絕行政機關(guān)采用算法決策程序作出決策,行政機關(guān)應(yīng)當(dāng)及時派專人干涉算法決策。
 
  結(jié)語
 
  以算法決策為代表的新一代人工智能技術(shù)日新月異,在政府管理、社會治理和公共服務(wù)中產(chǎn)生了深遠(yuǎn)的影響。盡管當(dāng)前政府對算法決策技術(shù)的使用尚處于早期發(fā)展階段,但從長遠(yuǎn)來看,先進(jìn)且復(fù)雜的算法決策技術(shù)嵌入更多行政管理活動成為一種必然的趨勢。在此背景下,我國自動化行政建設(shè)進(jìn)程持續(xù)提速,公權(quán)力的運行和個人權(quán)利的行使間的平衡被打破,新的平衡格局終會形成。當(dāng)公權(quán)力因為算法技術(shù)的應(yīng)用而得到擴(kuò)張的時候,個人權(quán)利的行使也應(yīng)當(dāng)受到加強和保障,公民有權(quán)利期待政府采取更加信賴的方式方法進(jìn)行行政管理活動,也有權(quán)利參與行政管理活動中,由此,個人脫離算法決策的權(quán)利必須得到實現(xiàn)。行政機關(guān)應(yīng)當(dāng)在自動化行政發(fā)展進(jìn)程中保持守正創(chuàng)新,一方面,深化行政正當(dāng)程序要求,始終堅持行政法治的價值理念;另一方面,推動公眾參與在自動化行政中創(chuàng)新發(fā)展。只有這樣,數(shù)據(jù)法治政府建設(shè)才能不斷推進(jìn)。