人工智能立法的“技術(shù)—社會+經(jīng)濟”范式
內(nèi)容提要:人工智能立法應(yīng)以立法范式轉(zhuǎn)型引領(lǐng)科技立法進入新時代。這一轉(zhuǎn)型是對近代以來科技立法形成的“技術(shù)—經(jīng)濟”范式的重大超越。既有科技立法范式,簡單強調(diào)經(jīng)濟主義的單一維度,雖然兩三百年以來成功地刺激了科技應(yīng)用和經(jīng)濟增長,但是現(xiàn)在明顯具有很大的不適應(yīng)性。一方面,這種過度經(jīng)濟主義模式本身導致了對科技社會性的忽視,引發(fā)越來越嚴重的科技與社會風險;另一方面,正在興起的人工智能科技具有前所未有的強社會面相,它的巨大顛覆潛力和認知能力等特性,使得其應(yīng)用面臨著復雜而迫切的社會規(guī)范要求,特別是引發(fā)了對人的價值性的關(guān)切,因此應(yīng)該向“技術(shù)—社會+經(jīng)濟”新范式轉(zhuǎn)變,以經(jīng)濟性、社會性的雙重架構(gòu)以及相應(yīng)的四項原則等,來推進對人工智能的合理規(guī)范。
關(guān) 鍵 詞:人工智能立法/科技立法/“技術(shù)—經(jīng)濟”范式/“技術(shù)—社會+經(jīng)濟”范式/自主化技術(shù)/人的價值性/人工智能倫理
作者簡介:龍衛(wèi)球,法學博士,北京航空航天大學法學院教授,博士生導師,教育部長江學者特聘教授。北京 100191
基金項目:國家社會科學基金重大項目(16ZDA075)。
法律與科技自近代以來存在緊密的聯(lián)系,人類基于對于科技作用的重視,自近代起設(shè)立了專門以科技作為規(guī)范事項的科技法。但是,我們可能注意到一個有關(guān)科技法的事實,那就是在其得以興起和發(fā)展的過去兩三百年間,科技法一直秉持的是一種“技術(shù)—經(jīng)濟”的立法范式,就是說關(guān)注的主要只是技術(shù)的經(jīng)濟規(guī)范意義。這種立法模式與人類關(guān)于科技的長期以來占主流地位的思維是一致的,即技術(shù)經(jīng)濟主義。這種思維對于科技的認知傾向是,“僅僅以經(jīng)濟學和經(jīng)濟史的術(shù)語來對待這一問題”①。即,技術(shù)主要作為具有巨大經(jīng)濟意義的工業(yè)革命的推動要素而受重視。隨著人類對技術(shù)經(jīng)濟意義追求不斷升級,甚至引發(fā)了對于技術(shù)的膜拜,促成一種技術(shù)統(tǒng)治乃至技術(shù)壟斷的技術(shù)意識形態(tài)后果[3](P43-62)。
一、問題的提出:人工智能時代科技立法范式轉(zhuǎn)型的背景
人工智能因機器學習等新方法和新技術(shù)的突破,成為當前最引人關(guān)注的新科技主題之一。人工智能科技最新和未來一個時期發(fā)展的意義,首先是其被認識到正在取得主導科技的地位,在技術(shù)和經(jīng)濟維度上形成了巨大的迭代力量,具有極端顛覆性的經(jīng)濟應(yīng)用前景,由此不斷引發(fā)投資風暴[4]。其次,則是它引起了作為新興科技事物正在產(chǎn)生前所未有的社會關(guān)注。人們開始意識到,它的發(fā)展影響不應(yīng)該僅僅是技術(shù)經(jīng)濟的,更應(yīng)該是社會的。對人工智能的這種社會關(guān)注,有積極方面的期待。計算社會學、人工智能化社會理論正在揭示新社會發(fā)展和建構(gòu)的可能性:例如,通過新計算方法和人工智能,可以發(fā)展更好測量世界的全新思維工具;通過引入不斷升級的智能化,可以使得世界互聯(lián)、萬物互聯(lián)、人機互動關(guān)系更加嫻熟。這些使得進行大規(guī)模社會協(xié)作成為可能,社會共享、社會合作的前景誘人[5](P199)??傊?,在人工智能和新計算方法之下,社會智能化發(fā)展方興未艾,一個“超級全球化”時代似乎就在眼前[6](P2)。
但目前人們對于人工智能的社會關(guān)切,更多還是消極方面的憂慮。首先是人類的適應(yīng)性問題。美國科技社會思想家蘭登·溫納早前指出,當代新技術(shù)領(lǐng)域的發(fā)展,其導致的現(xiàn)代社會日益增長的復雜性和快速變化,超出了個人和社會形態(tài)的適應(yīng)能力,“與社會技術(shù)系統(tǒng)日益增長的復雜性合在一起,這些變化使得人們越來越難以開展當代社會生活中某些最為基本的活動:規(guī)劃、設(shè)計以及功能上的協(xié)調(diào)合作”[1](P2)。其次則是科技自身風險及科技簡單經(jīng)濟化引發(fā)的社會風險問題。風險理論家貝克便關(guān)注到,在當前發(fā)達科技條件下,一方面,令人擔憂的生態(tài)風險和高科技風險不斷具備新的特點,導致不可計算的威脅的后果;另一方面,在所謂現(xiàn)代性之中,還出現(xiàn)了財富的社會化生產(chǎn)與風險的社會化系統(tǒng)相伴的情況。“相應(yīng)地,稀缺社會的分配問題和分配沖突,也同科技引發(fā)的風險在生產(chǎn)、界定及分配過程中產(chǎn)生的問題和沖突疊合在一起”“換言之,在風險社會中,未知的、意圖之外的后果成了歷史和社會的主宰力量”[7](P3,8)。就人工智能來說,其對社會的影響尤為重大和特殊。人工智能技術(shù)新發(fā)展,由于對計算方法極為推崇,導致了一種“計算主義”新思潮,似乎世界不過是計算或信息流構(gòu)成的[8](P2,20)。這種信息簡化主義世界觀,引發(fā)了有識之士對“技術(shù)致死”的憂懼:如果我們的道德、倫理和公共事務(wù)等問題被所謂的技術(shù)重構(gòu),變得這樣簡單可控,那么世界究竟會變成什么樣[9](P92)?此外,人工智能基于它在認知能力上的發(fā)展而具有與人的相通性,還帶來了棘手的重新塑造“人與人造物關(guān)系”的全新課題②。
人工智能鑒于其科技事項屬性,從立法歸屬而言,自然應(yīng)該納入科技立法的特別范疇[11]。由上可知,人工智能作為正逢其時的技術(shù)新領(lǐng)域,其發(fā)展可能帶來經(jīng)濟迭代福利的同時,也正在產(chǎn)生社會正反方面的巨大效應(yīng),因此從立法上來說必然導致更加復雜的要求。人工智能最新和未來發(fā)展具有的經(jīng)濟和社會的雙重影響,使得既有科技立法的所謂“技術(shù)—經(jīng)濟”范式明顯具有不適應(yīng)性。本文提出,人工智能立法范式具有由傳統(tǒng)科技立法的“技術(shù)—經(jīng)濟”范式轉(zhuǎn)向“技術(shù)—社會+經(jīng)濟”范式,實是勢所必然。本文擬就這種轉(zhuǎn)型的歷史規(guī)律進行觀察和分析,并試圖在此基礎(chǔ)上探究新范式的基礎(chǔ)、內(nèi)涵及其開展。
二、科技立法“技術(shù)—經(jīng)濟”傳統(tǒng)范式的流變及其規(guī)范原理
科技立法專門化的最初基礎(chǔ)是人類對于科技在經(jīng)濟上重要性的發(fā)現(xiàn)??萍季哂薪?jīng)濟的重要性不等于就會產(chǎn)生科技立法,只有當技術(shù)發(fā)展到一定階段、人們形成了關(guān)于其重要性的認識,科技立法才會水到渠成,科技事項才會成為相對獨立的規(guī)范對象。
技術(shù)的重要性對于人類來說不言而喻。近代開始,人文理性主義的意識崛起,科學意識也隨之覺醒,人類技術(shù)開始與科學思維與方法緊密相關(guān),從而由單純的技術(shù)發(fā)展為科技。這一時期,科學、科技先是作為人文理性主義的演繹產(chǎn)物得到發(fā)展,但很快就喧賓奪主,成為人文理性的替代形態(tài)而得到高舉。這種傾向在笛卡爾那里就有了端倪,這位17世紀的歐洲哲學家和科學家,倡導科學主義,提出了一種普遍懷疑的哲學主張,因此被譽為“近代科學的始祖”③。漸漸地,科學主義思想占據(jù)統(tǒng)治地位,理性主義幾乎等于科學主義。與此同時,英國的亞當·斯密等在理性主義的基礎(chǔ)上,提出了初始的自由市場理論,很快推動了市場經(jīng)濟實踐。于是,在科學主義和市場主義的結(jié)合下,英國不僅最早出現(xiàn)了科技的發(fā)明自覺,而且因為市場需要,科技發(fā)明的經(jīng)濟重要性也很快被認識到,于是導致了科技發(fā)明的勃發(fā),而為了鼓勵這種科技發(fā)明的自覺以及確保其市場經(jīng)濟效應(yīng)的發(fā)揮,英國生發(fā)了相應(yīng)的科技立法自覺,最早的科技法產(chǎn)生了,其形態(tài)就是鼓勵科技發(fā)明及其經(jīng)濟利用的專利法——通過授予發(fā)明人以專利權(quán)和相關(guān)的財產(chǎn)、人身利益,以便極大地刺激和鼓勵科技發(fā)明和經(jīng)濟應(yīng)用④。一批直接與現(xiàn)實經(jīng)濟需要密切相關(guān)的新發(fā)明應(yīng)運而生,包括紡織機、蒸汽機等,它們在專利法的保障下發(fā)揮巨大的經(jīng)濟潛力,支持英國最早開展工業(yè)革命,成為最早的工業(yè)強國。人類的科技立法也由此滾滾向前。
科技立法這種基于科學主義和經(jīng)濟主義結(jié)合的產(chǎn)物,順理成章地導致了此后“技術(shù)—經(jīng)濟”的立法范式的形成和不斷升級。一開始,二者之間是一種完全市場式的結(jié)合。立法者通過采取授予專利權(quán)等科技產(chǎn)權(quán)、確立有限責任公司等適合科技產(chǎn)業(yè)化規(guī)模風險經(jīng)營的組織形態(tài)等市場化激勵方式,對于科技發(fā)明和應(yīng)用加以刺激。專利制度和公司制度先從英國興起,后逐漸發(fā)展到美國、德國等國家,形成了科技立法國際發(fā)展的第一輪高潮。在“技術(shù)—經(jīng)濟”范式鼓勵下,工業(yè)企業(yè)為了追求更加先進的科技產(chǎn)業(yè)利益,開始成立專門的工業(yè)實驗室進行有組織的科技研究,導致了大量工業(yè)發(fā)明出現(xiàn)。到19世紀中葉,除了傳統(tǒng)的煤炭、紡織業(yè),電氣、化工等新的科技領(lǐng)域得到突破,進而促成了新科技產(chǎn)業(yè)的出現(xiàn)和繁榮。19世紀80年代以后,由于科技壟斷帶來的競爭優(yōu)勢,在石油、采煤、榨油、煙草、制糖等部門出現(xiàn)了卡特爾、康采恩或托拉斯組織,這些不斷崛起的大型企業(yè)聯(lián)合,具有經(jīng)濟集中的優(yōu)勢,這種情況受到主流地位的自由市場理論抨擊,導致了旨在維護市場公平競爭的反壟斷法的出臺。但是,反壟斷法卻產(chǎn)生了更加促進有組織的工業(yè)研究的效果,因為大型企業(yè)只有不斷做出新領(lǐng)域的科技發(fā)明,才能夠避免陷入專一技術(shù)經(jīng)營形成的壟斷。這種競爭利益雖然表面上看具有一定的社會性,被譽為社會經(jīng)濟利益,但是本質(zhì)上仍然是市場經(jīng)濟利益,因為旨在保護市場競爭。從這個意義上說,科技立法的“技術(shù)—經(jīng)濟”模式不斷在得到深化⑤。
科技立法的“技術(shù)—經(jīng)濟”范式在20世紀中葉,被以一種強化國家干預科技進步和轉(zhuǎn)化的方式,推進到一個新階段。20世紀三四十年代,各國基于二戰(zhàn)的需要,集中科技資源備戰(zhàn),強化有組織的攻關(guān)研究,旨在保障和促進對于戰(zhàn)時工業(yè)經(jīng)濟特別是軍工有優(yōu)先支持作用的科技的發(fā)展和競爭。為此,各國政府紛紛引入科技與產(chǎn)業(yè)結(jié)合的干預政策,此即科技政策。例如,美國成立了國防研究委員會,組織科技資源以增強國防能力,后來建立科學研究和發(fā)展局。二戰(zhàn)后,各國有的以戰(zhàn)后恢復和重建為需要,有的以提升國家競爭力和促進產(chǎn)業(yè)升級為目標,繼續(xù)干預科技發(fā)展,以促進科技在期待的領(lǐng)域進步、轉(zhuǎn)化和創(chuàng)新。20世紀50年代,通過科技政策機制,大力投資基礎(chǔ)研究和高等教育,重建和發(fā)展打造知識資源和人力資源的基礎(chǔ),并且著力電子、石化、原子能等新技術(shù)領(lǐng)域的科技創(chuàng)新和轉(zhuǎn)化,形成了新一輪科技產(chǎn)業(yè)化。原先以市場自由主義為基礎(chǔ)的“技術(shù)—經(jīng)濟”模式,調(diào)整為以國家科技政策為基礎(chǔ)的干預式“技術(shù)—經(jīng)濟”模式⑥[12](P99-100)。這種情況持續(xù)到60年代經(jīng)濟復蘇之后,才開始向科技的市場自由化做調(diào)整,科技政策也開始關(guān)注市場需求;到80年代,更加強調(diào)科技資源供應(yīng)和市場需求的結(jié)合,導致在微電子、生物技術(shù)和新材料等新領(lǐng)域又形成新一輪“技術(shù)—經(jīng)濟”高峰。20世紀初,面對新一輪科技大發(fā)展的機遇期,各國為了快速提升和確保國家競爭力,更是大力推進科技創(chuàng)新政策,甚至上升到推行科技創(chuàng)新戰(zhàn)略的高度⑦。
這里需要提到,中國在歷史上由于種種原因,近代以來處于科技發(fā)展的被動局面,并與工業(yè)革命失之交臂,因此長期以來都處于科技落后狀態(tài),科技立法自然也是缺席的。1949年新中國建政后,動用國家體制力量,集中科技資源,就一些急需重大戰(zhàn)略科研進行了攻關(guān),但科技發(fā)展和工業(yè)發(fā)展總體較為薄弱。20世紀70年代末開始,中國啟動經(jīng)濟體制改革,提出“科技是第一生產(chǎn)力”論斷,以經(jīng)濟建設(shè)為中心,并毫不遲疑引入“技術(shù)—經(jīng)濟”模式,采取國家干預和市場發(fā)展相結(jié)合,強化科技政策作用,確立了“經(jīng)濟建設(shè)必須依靠科學技術(shù)、科學技術(shù)工作必須面向經(jīng)濟建設(shè)”的科技服務(wù)于經(jīng)濟的方針,并以此啟動科技體制改革,全面助力經(jīng)濟體制改革[12](P107)。此后,還先后制定了《科學技術(shù)進步法》和《促進科技成果轉(zhuǎn)化法》。之后,科技政策不斷升級,經(jīng)歷了1995年實施“科教興國”戰(zhàn)略、加強國家創(chuàng)新體系建設(shè)和2006年“自主創(chuàng)新戰(zhàn)略”、增強自主創(chuàng)新能力的兩次提升⑧。
科技立法基于“技術(shù)—經(jīng)濟”范式,其規(guī)范原理歸納起來有四個方面:其一,堅持科技立法的專門化,形成了科技立法體系,逐漸形成科技市場法、科技風險法(主要是應(yīng)對科技應(yīng)用導致的工業(yè)風險、事故安全和特殊科技安全)、科技政策法三大具體領(lǐng)域。其二,主要以鼓勵、刺激科技的經(jīng)濟實用價值為目標。最典型的是不斷發(fā)展和完善專利法、技術(shù)合同以及其他技術(shù)市場制度。其三,基于不同時期的政治經(jīng)濟環(huán)境,靈活運用市場原則和國家干預原則??傮w上早期以市場自由為主,到了后來逐漸重視國家干預,不斷出臺自上而下的促進科技進步、轉(zhuǎn)化和創(chuàng)新的政策機制,20世紀中葉達到頂峰,之后又逐漸回調(diào),目前處于平衡狀態(tài)。其四,科技立法在“技術(shù)—經(jīng)濟”范式下,對于科技社會問題并非完全棄之不顧,但在規(guī)范上是附帶的,而且很多是為了減緩貫徹科技經(jīng)濟主義的社會后果。最早大概從19世紀開始,通過勞工運動,與當時科技應(yīng)用相關(guān)的工業(yè)風險和勞動安全開始得到關(guān)注。英國政府于1802年推出第一部《工廠法》,提出了工廠生產(chǎn)安全的早期規(guī)范要求,到了1860年代相關(guān)立法保護范圍擴大到“有雇傭勞動的任何地方”,旨在適當改善被雇傭者的境遇。其他國家也陸續(xù)發(fā)展這種工廠法和勞工保護法規(guī)。這是早期科技立法的微弱社會性的一些體現(xiàn)。20世紀80年代之后,各種科技社會問題的不斷爆發(fā),加上越來越多的社會運動的壓力,科技立法才加速納入科技社會問題的進程。具體體現(xiàn)為:工廠法、勞工保護法、工業(yè)事故法等進一步社會化[13](P1)。除了上述部分,國際社會也開始關(guān)注環(huán)境和生態(tài)保護,以及特殊科技安全如核安全等⑨,但是總體上仍然處于邊緣位置。
三、科技立法“技術(shù)—經(jīng)濟”范式下的社會問題及其自主化技術(shù)后果
科技立法強調(diào)科技經(jīng)濟意義實際上是強調(diào)一種效率導向[14](P98-102),這一點本身無可非議。人類在很長的一個時期內(nèi)需要加強的確實就是自己的經(jīng)濟生存能力問題,從功利主義的角度來說,讓人類具備吃飽穿暖的能力,這大概應(yīng)該成為一條底線。很多經(jīng)典學者對于國家意義的討論,很大一個基點就是經(jīng)濟生存問題,所以就有了財產(chǎn)權(quán)設(shè)計的原初正當性。例如,洛克就認為,個人權(quán)利應(yīng)該是從父權(quán)和財產(chǎn)權(quán)共同起源的,政府作為一種可以使得財產(chǎn)的自然狀態(tài)變成受保護的權(quán)利狀態(tài)的方式受到人們歡迎,所以才有了政府的必要,才有了政治社會和公民國家[15](P63-68)??档乱舱J為,對財產(chǎn)利益的保護是最初核心的誘導性因素,它引領(lǐng)處于自然狀態(tài)的人們走向聯(lián)合并形成政府或市民社會⑩[16](P186)。科技是人類自身可以創(chuàng)造的具備提升經(jīng)濟能力的事物,所以在促進經(jīng)濟意義上得到利用、受到重視,應(yīng)該說是順理成章的。但科技具有經(jīng)濟意義本身,并不等于科技僅僅具有經(jīng)濟意義,或者說我們對于科技的關(guān)注唯其經(jīng)濟意義即可??萍蓟顒蛹捌淞⒎ǖ?ldquo;技術(shù)—經(jīng)濟”范式的問題正在于此,簡單片面地強調(diào)對于科技經(jīng)濟意義的追求,而忽視科技具有的其他方面的意義,甚至為了科技的經(jīng)濟意義而不顧其他的后果。這種科技活動及其立法范式,在這二三百年的實踐中,帶來了許多負面的后果。
科技活動及其立法的“技術(shù)—經(jīng)濟”范式,使得技術(shù)的社會性基本被忽略,引發(fā)甚至誘發(fā)許多社會問題包括社會政治問題。它通過與資本的結(jié)盟,在工業(yè)革命初期導致的社會災(zāi)害問題就已經(jīng)凸顯,比如說工業(yè)事故、勞動安全以及嚴重的社會不公平問題。這些也導致了社會的不安定,損害了社會團結(jié)。技術(shù)經(jīng)濟主義,進而也會導致從技術(shù)支配經(jīng)濟到技術(shù)支配人的問題???middot;馬克思在《資本論》中,深刻揭示了這種資本倚重工業(yè)技術(shù)的經(jīng)濟主義單邊結(jié)構(gòu),不斷導致社會分化乃至社會關(guān)系異化,從而導致資本家或企業(yè)主與工人的對立關(guān)系。工人的主體性,被資本作用下的“技術(shù)—經(jīng)濟”架構(gòu)以及資本家經(jīng)濟利益單邊結(jié)構(gòu)所支配。這是非常可怕的,使得資本主義社會長期陷入對抗之中而不能自拔[17](P1)。技術(shù)經(jīng)濟主義,也促成了國家之間的惡性競爭和極差,導致了歐洲國家之間的多次爭霸,導致了技術(shù)先進國家對技術(shù)落后國家的技術(shù)支配和殖民,惡化國際社會關(guān)系。建立在技術(shù)經(jīng)濟主義基礎(chǔ)上的政治秩序,無論國內(nèi)還是國際,一直以來都處于惡性的競爭格局之中,雖然在每次劇烈沖突之后都有所調(diào)整和節(jié)制,但是總體上并不能有效控制,更談不上消除問題。到今天為止,世界仍然處于一種基于科技逐利的、通過科技極差壓制掠奪他國的極為互不信任的關(guān)系之中。正在進行的中美貿(mào)易戰(zhàn)就是一個典型例子。技術(shù)經(jīng)濟主義,還使得其不能及時回應(yīng)科技及其應(yīng)用引發(fā)的不斷升級的環(huán)境和安全問題。工業(yè)革命以來,科技立法對于環(huán)境破壞問題長期處于沉默狀態(tài),直到20世紀60年代在環(huán)境社會運動的壓力下,才逐漸將環(huán)境保護問題提上議程,但直到今天這個問題解決起來其實還很困難,包括開展環(huán)境治理的國際合作十分不易。工業(yè)革命以來,科技發(fā)展的安全和威脅問題,也一直處于邊緣位置,直到20世紀中葉,當航空航天科技、核技術(shù)、生化技術(shù)等對人類生存構(gòu)成嚴重威脅時,相關(guān)議題才進入視野。
科技活動及其“技術(shù)—經(jīng)濟”立法范式,其產(chǎn)生的最根本上威脅人類自身存在價值的一種后果,是技術(shù)結(jié)構(gòu)的自主性滋長。技術(shù)在一種自主性結(jié)構(gòu)邏輯里面為所欲為,進而發(fā)展為失去人的控制的主體化僭越。雅克·埃呂爾將這種技術(shù)失去控制的情況,稱為“自主化技術(shù)”后果,即“技術(shù)已經(jīng)成為自主的;它已經(jīng)塑造了一個技術(shù)無孔不入的世界,這個世界遵從技術(shù)自身的規(guī)律,并已拋棄了所有的傳統(tǒng)”[18](P13)。自主化技術(shù)后果,首先對于個人的自主性具有致命的威脅[19](P1)。海德格爾就此描述說:“人都將比以往更緊密被技術(shù)力量包圍。這些力量,它們要求、束縛、拖曳、逼迫和強制著,將人置于這樣或那樣的技術(shù)發(fā)明形式的控制之下——這些力量……自從超越他的意志以來已經(jīng)走了很遠,他的決策能力已經(jīng)落后了。”[18](P12)自主化技術(shù)的后果,對于人類文化自主性形成壓制,最終促成技術(shù)統(tǒng)治乃至技術(shù)壟斷。美國學者尼爾·波斯曼在《技術(shù)壟斷》一書中提出,人類技術(shù)文明以來可以劃分為三個時代,即工具時代、技術(shù)統(tǒng)治時代和技術(shù)壟斷時代。人類直到17世紀,都是處于工具時代,技術(shù)成為人類自身文化的工具;進入工業(yè)革命之后,技術(shù)地位不斷上升,逐漸取得統(tǒng)治權(quán),開啟技術(shù)統(tǒng)治時代,對人類文化產(chǎn)生了極大的改造效應(yīng),雖然表面上促進了平等和自由,但也出現(xiàn)了產(chǎn)業(yè)化和科技競爭的狂熱;今天則開始進入技術(shù)壟斷時代,文化向技術(shù)投降,技術(shù)幾乎要徹底壟斷人類文化觀[3](P21-62)。
四、人工智能立法“技術(shù)—社會+經(jīng)濟”新范式的基礎(chǔ)及其開展
人工智能科技作為第四次工業(yè)革命引燃的新科技之一,是以機器學習算法(如人工神經(jīng)網(wǎng)絡(luò)和深度學習方法)和自動發(fā)現(xiàn)技術(shù)為基礎(chǔ)的,這些技術(shù)讓智能的機器人與計算機獲得認知能力,可以通過設(shè)計實現(xiàn)自我編程,形成從基本原理中找到最佳解決方案的能力?,F(xiàn)在應(yīng)用的領(lǐng)域突飛猛進,從智能助手向環(huán)境智能急速轉(zhuǎn)進[20](P9)。前者,包括人機交談(如蘋果公司的Siri語音服務(wù))、文字輸入預測、歸納文本信息、診斷疾病、選擇推送廣告、搜索算法(谷歌)、翻譯軟件、智能法務(wù)等;后者,則包括正在開發(fā)或不斷改進的作為單體使用的無人機、無人駕駛汽車、警務(wù)機器人、伙伴機器人等,也包括作為提供管理和服務(wù)的智慧交通管理平臺、智慧城市管理平臺、司法服務(wù)自助和分發(fā)平臺等[21](P152)。
(一)人工智能科技的“強社會面相”與立法范式轉(zhuǎn)變基礎(chǔ)
世界經(jīng)濟論壇創(chuàng)始人施瓦布提出,要關(guān)注科技革新或工業(yè)革命可能導致負外部性,即對于社會的損害或威脅。他認為,此前的第三次工業(yè)革命,雖然取得了巨大的發(fā)展,但是在科技競爭、經(jīng)濟一體化和全球化的情勢下,卻付出了損害自然環(huán)境、弱勢群體等沉重代價,而以人工智能等新科技為表征的第四次工業(yè)革命如果不想重蹈覆轍,那么最好是要管理好這種外部性效應(yīng),防范和避免科技應(yīng)用的意外后果、變革成本、二級影響以及蓄意濫用的傷害等[21](P3,11)。
人工智能發(fā)展基于其科技特點以及極具顛覆性的經(jīng)濟應(yīng)用潛能,如果不提前應(yīng)對和防范,其可能帶來的社會負外部性,毫無疑問會比既有的任何科技都更加復雜和嚴重。人工智能科技作為新興科技,自身在應(yīng)用上具有許多其他科技無法比擬的迭代效應(yīng),存在巨大的應(yīng)用場景和產(chǎn)業(yè)化空間,此外還具有滲透其他幾乎所有領(lǐng)域的效用,即通過“人工智能+”方式,可以放大其他領(lǐng)域的效用。這是積極方面的。但是消極面來講,如果處理不好,也會帶來許多可能意想不到的負外部性后果,包括甚至放大其他領(lǐng)域的社會問題。因此需要預先布局,提前做好化解和應(yīng)對,以避免貪功冒進、陷入社會危機。已經(jīng)有不少人工智能社會學家對之做出了嚴肅的關(guān)注和研究,并且做出了許多中肯的揭示或預測。中國政府2017年7月8日發(fā)布《新一代人工智能發(fā)展規(guī)劃》也關(guān)注了人工智能發(fā)展的不確定性帶來新挑戰(zhàn),提出“人工智能是影響面廣的顛覆性技術(shù),可能帶來改變就業(yè)結(jié)構(gòu)、沖擊法律與社會倫理、侵犯個人隱私、挑戰(zhàn)國際關(guān)系準則等問題,將對政府管理、經(jīng)濟安全和社會穩(wěn)定乃至全球治理產(chǎn)生深遠影響。在大力發(fā)展人工智能的同時,必須高度重視可能帶來的安全風險挑戰(zhàn),加強前瞻預防與約束引導,最大限度降低風險,確保人工智能安全、可靠、可控發(fā)展”[22]。
首先,人工智能發(fā)展可能帶來的負外部性,許多是整體性或共同性的。主要體現(xiàn)為兩個方面,即可能引發(fā)系統(tǒng)的社會公平和平等問題以及可能引發(fā)社會安全和風險問題。其一,人工智能基于其應(yīng)用可能導致社會不公平、不平等,主要是因為人工智能作為一種更具顛覆性的技術(shù),容易使得先用者取得一種科技極差優(yōu)勢和事實上的科技壟斷優(yōu)勢。從而,不僅會使得財富和福祉分配不公平,甚至導致贏者通吃的吸利效應(yīng),使得后用者或者各種原因被排除在人工智能技術(shù)之外的人,特別是利益相關(guān)者,成為新技術(shù)的弱勢群體,進而成為社會弱勢群體(11)[23](P7-8)。一般而言,最大的受益者應(yīng)該是科技創(chuàng)造者、投資人、股東,以及控制了作為人工智能運行基礎(chǔ)的數(shù)據(jù)的為數(shù)不多的大平臺;而具體的勞動者、消費者(12)甚至一般生產(chǎn)者等則容易淪為不幸者[20](P9-12)。其中,勞動力市場公平問題目前最令人關(guān)注。面對人工智能可能帶來的產(chǎn)業(yè)消失、從業(yè)人口減少和為釋放出來的勞動力尋找出路,該如何縮短轉(zhuǎn)型周期,是擺在政府面前的一個現(xiàn)實命題。人工智能將導致傳統(tǒng)勞動力的大量失業(yè),合理安排、疏導或是通過培訓再次利用這些勞動力,將是對政府的重大考驗。但在另一方面,人工智能人才短缺又成為制約人工智能產(chǎn)業(yè)發(fā)展的短板(13)。所以,勞動力體制改革已經(jīng)是迫在眉睫。2016年12月奧巴馬政府出臺《人工智能、自動化和經(jīng)濟》報告,便涉及培養(yǎng)人工智能人才和同時解決勞動力失業(yè)難題兩個方面(14)[24]。歐盟委員會發(fā)布了2018《關(guān)于人工智能的通訊》,也關(guān)注了自動化、機器人和AI的出現(xiàn)正在改變勞動力市場,提出現(xiàn)階段做出量化的評估還不具備條件,但歐盟必須為此變革做好準備[25]。中國2017年《新一代人工智能發(fā)展規(guī)劃》在保障措施部分的第五點提到,大力發(fā)展勞動力培訓,但目前這方面的舉措還有待實化和明確(15)。其二,人工智能基于應(yīng)用特別是濫用,比以往許多科技都可能更容易使得社會陷入不安全或巨大風險。這是因為,人工智能的研發(fā)和應(yīng)用,無論從系統(tǒng)穩(wěn)定、功能還是應(yīng)對復雜社會環(huán)境、防范人為濫用或者破壞等來講,都具有更加的不確定性[21](P10-11)。廣義上的社會風險,還包括人們對于人工智能時代的不適應(yīng)性。因為人工智能帶來的變化速度,可能已經(jīng)超出了人類基因選擇和文化選擇的適應(yīng)能力[26](P22)。中國《新一代人工智能發(fā)展規(guī)劃》第一部分的總體部署,提到了人工智能發(fā)展與風險防范的并舉要求,即“把握人工智能技術(shù)屬性和社會屬性高度融合的特征。既要加大人工智能研發(fā)和應(yīng)用力度,最大程度發(fā)揮人工智能潛力;又要預判人工智能的挑戰(zhàn),協(xié)調(diào)產(chǎn)業(yè)政策、創(chuàng)新政策與社會政策,實現(xiàn)激勵發(fā)展與合理規(guī)制的協(xié)調(diào),最大限度防范風險”[22]。
其次,人工智能可能的負外部性,更多是具體的,體現(xiàn)在人工智能特定化的具體應(yīng)用場景。所以,場景細分研究很重要。例如,在人工智能決策領(lǐng)域,可能導致的負效應(yīng)就包括問責不合理、引發(fā)失業(yè)、誘發(fā)網(wǎng)絡(luò)入侵和網(wǎng)絡(luò)犯罪、缺乏責任義務(wù)、決策過程不透明或難以理解、加劇該領(lǐng)域的不平等、違反算法合理、對人性化形成根本威脅等;在人工智能替代白領(lǐng)工作領(lǐng)域可能導致的負效應(yīng),主要包括失業(yè)、問責和義務(wù)不合理、法律財務(wù)信息披露風險加劇、工作自動化等;在人工智能服務(wù)領(lǐng)域,其負效應(yīng)則可能有失業(yè)、責任和義務(wù)不合理、向全天候服務(wù)轉(zhuǎn)變、誘發(fā)黑客和網(wǎng)絡(luò)安全風險等[20](P161-166)。具體場景中,至于無人機、自動駕駛汽車、警務(wù)機器人、自動致命武器等則更加復雜,正處于熱議之中,目前的研究似乎離形成清晰化認識還有很大差距。限于篇幅,這里不予贅述。
上面這些社會問題,還不是人工智能科技最復雜的消極問題。人工智能新科技與其他許多科技有一個很不同的特點,就是它是一種以認知能力為基礎(chǔ)的技術(shù),為此是具有與人相通的特點,因此引發(fā)極強的倫理關(guān)切。在應(yīng)用面向上說,這種與人的相通性可能帶來不可估量的潛在效用,能夠替代人類發(fā)揮智慧作用,可以想象,從經(jīng)濟增進上來說功效可期,厚利在望。但是,它以與人相通性以及以人機互動或者對人的替代作為效用設(shè)計的特點,也可能導致對人的混淆甚至取代的后果。由此,引發(fā)令人困惑的人與人造物的關(guān)系難題,導致人自身存在的危機感,這是前所未有的問題。第四次工業(yè)革命的新科技之中,能與人工智能科技對人自身形成威脅近似的,還有生物科技、神經(jīng)科技。以生物科技為例,生物技術(shù)經(jīng)過過去20年的發(fā)展,在數(shù)字技術(shù)和新材料的支持下,基因組、基因工程、診斷學、制藥開發(fā)等方面都取得了質(zhì)的飛躍,出現(xiàn)了能夠改變生物系統(tǒng)的技術(shù)或生物設(shè)計技術(shù),在DNA測序、DNA合成等DNA操縱下,轉(zhuǎn)基因植物技術(shù)、干細胞技術(shù)、克隆技術(shù)、胚胎技術(shù)、基因治理技術(shù)、基因編程技術(shù)等可謂層出不窮,這些對于生物工程、精密醫(yī)學、農(nóng)業(yè)、環(huán)境、人體健康等顯然具有極大的應(yīng)用價值,但是它們同時帶來了對于人本的威脅,因為極有可能改變?nèi)酥疄槿说脑瓨?,所以也引發(fā)了極為深刻的人本主義觀念下的倫理和安全危機[21](P187)。神經(jīng)科技,也有類似之憂[21](P199)。這個倫理性問題不好處理,值得加強研究,要盡快拿出可以確信的兼顧倫理設(shè)計的方案來。我們固然不能過于保守地處理人工智能帶來的“人的危機”問題,但是引入必要的監(jiān)管設(shè)計應(yīng)該不可避免。遺憾的是,目前各國和有關(guān)國際組織雖然在倡導一些人工智能倫理標準,包括所謂機器人安全原則,但還沒有形成總括性的行之有效的全球標準。
人工智能科技在“技術(shù)經(jīng)濟”模式下可能形成的負效應(yīng),可以歸結(jié)為人工智能的科技社會風險??萍既绻麅H在經(jīng)濟主義的刺激下,作為改善物質(zhì)需求發(fā)展和應(yīng)用,脫離對社會價值的考量,那就必定會使技術(shù)與社會嚴重脫節(jié),導致嚴重的社會風險,廣義上包括對人自身的風險。自近代以來,科技風險概念就以特殊的形態(tài)不斷升級,這都與所謂科技現(xiàn)代化采取單邊經(jīng)濟主義相關(guān)。風險社會理論家貝克稱之為“工業(yè)社會的自反性”或“自反性現(xiàn)代化”。即,“生產(chǎn)力在現(xiàn)代化進程中的指數(shù)式增長,使風險和潛在自我威脅的釋放達到了前所未有的程度”“在工業(yè)社會中,財富生產(chǎn)的‘邏輯’支配風險生產(chǎn)的‘邏輯’”“從現(xiàn)代化進程自反性角度來看,生產(chǎn)力喪失了其清白無辜的面目。技術(shù)—經(jīng)濟‘進步’帶來的力量,日益為風險生產(chǎn)的陰影所籠罩。”[7](P7)科技社會風險演進到今天,早已不再是從前的潛在的副作用,而是達到極端泛濫或突變的程度;這種風險也顯然不同于19世紀20世紀上半葉的工廠或職業(yè)危機,而是成為對于自然界和人類自身包括生命重大威脅,且成為跨越國界和族群的全球性危害[7](P3,7)。
人工智能科技的強社會面相,也體現(xiàn)在其積極方面的協(xié)同需要。人工智能無論從研發(fā)還是應(yīng)用,都包含了巨大的共享和協(xié)同需求,同時也蘊含了巨大的共享和協(xié)同價值,還暗含新時代的普惠追求。因此,人工智能無論是其自身的研發(fā)、應(yīng)用,還是對于其他領(lǐng)域的滲透,都高度依賴于協(xié)同性的資源配置安排或者運行合作。人工智能開發(fā)和應(yīng)用需要的協(xié)同,包括基礎(chǔ)方面的協(xié)同,例如數(shù)據(jù)協(xié)同、平臺協(xié)同、管理協(xié)同,也包括具體應(yīng)用功能和主體的協(xié)同,還包括人機協(xié)同等等。這些甚至要落到具體行為、管理、權(quán)利、義務(wù)、責任的協(xié)同上來,導致人工智能相關(guān)的權(quán)力、職責、權(quán)利、義務(wù)、責任等不會簡單地像既有范式那樣去設(shè)計,而是需要基于協(xié)同的要求做出必要合理的變化。僅以數(shù)據(jù)資源為例,人工智能的開發(fā)和應(yīng)用,離不開大數(shù)據(jù)集聚和及時更新,數(shù)據(jù)越豐富越動態(tài)就越好,因此有必要通過設(shè)計為人工智能開發(fā)者創(chuàng)造合理獲取數(shù)據(jù)的機會,除了盡可能開放可公開資源之外,也需要為人工智能開發(fā)者提供在具體場景中動態(tài)獲取必要數(shù)據(jù)的便利。但是這些會與數(shù)據(jù)管理、數(shù)據(jù)權(quán)屬、個人信息保護等既有法律秩序產(chǎn)生沖突,因此需要進行巧妙的協(xié)同設(shè)計,實現(xiàn)雙贏,以便最終使得協(xié)同成為可能并且圓滿(16)。目前,存在一種因關(guān)注共享而完全否認數(shù)據(jù)權(quán)屬化的觀點,筆者認為這種觀點對于共享設(shè)計架構(gòu)有簡單化嫌疑,難以提供合理的主體間數(shù)據(jù)合作的根源和動力[27](P1-12)?;谌斯ぶ悄艿男湃螜C制也很重要,應(yīng)當配合協(xié)同需要完善相應(yīng)的信任機制。馬克·格蘭諾維特在《社會與經(jīng)濟:信任、權(quán)力和制度》一書中提到,個人行為雖然存在自利和受規(guī)則與價值體系影響之間的微妙關(guān)系,但信任和權(quán)力也會潛移默化地塑造個人的心智結(jié)構(gòu),所以信任也是個人行為非常重要的社會因素[28](P91-140)。人工智能的信任機制體現(xiàn)在許多方面,但往往是具體場景化的,例如在人工智能決策領(lǐng)域,理性的數(shù)據(jù)驅(qū)動,決策過程的透明、可理解以及決策可問責等,大概都具有增進信任的功效(17)。目前人工智能自動駕駛汽車行業(yè)比較注重在關(guān)鍵點上、如隱私問題,通過宣示自律措施確立信任機制(18)。
總之,人工智能科技以一種強社會面相,展示了前所未有的社會規(guī)范需求性,這既是科技經(jīng)濟主義發(fā)展到今天,導致科技應(yīng)用勢必陷入極大風險的警示結(jié)果,也是人工智能科技自身發(fā)展到現(xiàn)階段,需要更加特殊的社會協(xié)作和信任機制加以支持的要求使然??梢姡斯ぶ悄芸萍剂⒎ㄗ鳛榭萍剂⒎òl(fā)展到當下的特殊新領(lǐng)域,其轉(zhuǎn)型勢在必行。由上述論證邏輯可知,應(yīng)當超越既有科技立法的“技術(shù)—經(jīng)濟”范式,而以兼顧社會的新面相,跨入“經(jīng)濟—社會+經(jīng)濟”的新階段。
(二)人工智能立法“技術(shù)—社會+經(jīng)濟”新范式的開展
人工智能立法的新范式,以技術(shù)社會性的兼顧,從架構(gòu)上總體上需要堅持兩重性。一方面,仍然致力促進人工智能科技的經(jīng)濟意義。人類在很長一個時期之內(nèi),需要通過科技提升自己的經(jīng)濟能力,這本身并沒有錯。只要在我們的世界還存在物質(zhì)短缺或財富增長的需求,那么科技的經(jīng)濟效應(yīng)就值得我們追求。我們今天還沒有到可以摒棄科技經(jīng)濟效用的時候,只是不宜取經(jīng)濟主義而單兵冒進,而是應(yīng)予制度創(chuàng)新,兼顧必要的社會性以有所節(jié)制。何況,目前階段,人工智能科技只是形成了巨大的潛力,還有重要的技術(shù)突破和擴展時期,從經(jīng)濟意義特別是國家處于機遇期需要提升競爭力上說,還存在一個極具關(guān)鍵的需要鼓勵和引導期間。當然,不同國家或不同階段存在差異性,導致經(jīng)濟需求的迫切程度、正當化程度會有所不同。例如,發(fā)達國家經(jīng)歷二三百年工業(yè)化的經(jīng)濟主義追求之后,經(jīng)濟增長進入了一個新的階段,而發(fā)展中國家卻仍然有不少還掙扎在貧困線上[7](P5)。這恐怕也是國際社會要就科技事項進行平衡規(guī)范,難以取得合作共識的原因之一。另一方面,必須引入和提升人工智能科技社會規(guī)范。這是極為急迫而重要的。對應(yīng)社會積極和消極的規(guī)范需求,體現(xiàn)為兩大方面。一是積極的人工智能科技社會規(guī)范,重點是其合理研發(fā)和應(yīng)用需要的社會協(xié)作、信任的規(guī)范體系建設(shè)。二是消極的人工智能科技社會規(guī)范,重點是如何防范和應(yīng)對前述人工智能可能帶來的社會問題。這一部分其實就是人工智能科技及社會風險立法范疇。通過加強并且系統(tǒng)化防范和治理的方式,達成風險可控。按照貝克的說法,就是要將過去稀缺社會的財富分配邏輯,向發(fā)達現(xiàn)代性的風險分配邏輯轉(zhuǎn)變,或者說從財富生產(chǎn)支配風險生產(chǎn)的邏輯,轉(zhuǎn)變?yōu)轱L險控制支配財富生產(chǎn)的邏輯[7](P3-48)。
人工智能立法新范式的兩重性布局,應(yīng)以全新的價值觀和更加合理的原則體系作為基礎(chǔ)。鑒于人工智能的巨大科技風險,特別是基于其具有與人相通的認知能力,對于人本身構(gòu)成了混淆或者替代威脅。一種正在成為主流的聲音認為,關(guān)于人工智能立法的價值基礎(chǔ),需要提升一個高度,即應(yīng)從最基本的人本主義來思考,以人的基本安全為底線,提出入與人工智能這種特殊人造物(也可以是打引號的“人造人”)的最低關(guān)系準則。學者和機構(gòu)將之稱為人工智能和機器人應(yīng)用的基本倫理框架,作為人工智能規(guī)范和政策的最高指導。當然,也有還在觀望之中的(19)[29](P25)。堅持人的價值觀的重點是,堅持人的價值的原初本體性,堅持人工智能的價值與人的價值一致性,在二者發(fā)生沖突時以人的價值為優(yōu)先。《聯(lián)合國世界人權(quán)宣言》和一系列相關(guān)文本宣示的,是人的價值的重要國際規(guī)范來源,但人的價值性應(yīng)該不限于此。這也是第四次工業(yè)革命的新價值觀。施瓦布研究第四次工業(yè)革命的實踐時,呼吁要“確保對第四次工業(yè)革命由人類主導、以人文本。技術(shù)的開發(fā)必須尊重人類價值觀本身,而不是只考慮經(jīng)濟價值。此外,以人為本意味著賦能于人,而不是支配人類的命運”[21](P11,32-55)。
雖然在人工智能立法的價值體系中,人的價值觀居于最高位階,但還存在對于其他功能性或類型化價值追求。比如,從人工智能作為科技自身角度的促進科技創(chuàng)新與競爭力的價值,從經(jīng)濟角度的提升生產(chǎn)力和經(jīng)濟效率的價值,從社會意義角度的維護社會基本公平與安全的價值等等。這些價值之間存在平衡關(guān)系,發(fā)生沖突時,社會價值應(yīng)該具有優(yōu)先適用性。但是,這些功能性價值,最終要服從于居于上位的人的價值,后者具有終極性、本位性和優(yōu)先性。另外,僅從人工智能的社會價值角度,筆者認為,廣義上至少包括倫理、安全、公平、包容四個方面,它們之間存在交叉重疊。其中,倫理既包括關(guān)于人的尊嚴,也包括一般社會倫理。目前,除了關(guān)注人的混淆和替代之外,重點關(guān)注的還有使用人工智能導致過度監(jiān)控問題、全景智能問題等。安全,既包括個人及人類的安全,也包括社會安全。公平,指社會不同人之間出現(xiàn)的機會或利益極差的情況;包容,則指平等、開放對待別人,歧視是其重要反例(20)[30]。此外,我國《新一代人工智能發(fā)展規(guī)劃》強調(diào)的社會價值,還包括人工智能對于社會建設(shè)的功能在內(nèi)(21)。
人工智能立法的上述價值觀,應(yīng)當通過一系列原則在人工智能的內(nèi)在架構(gòu)中予以進一步貫徹。這些原則成為全部規(guī)則設(shè)計和體系解釋的原理基礎(chǔ)?;谏鲜鰞r值的邏輯展開,最少可以包括:其一,堅持維護人的尊嚴的原則。這是由堅持人的價值性推論出來的,毫無疑問是最主要的原則。其二,堅持技術(shù)創(chuàng)新、經(jīng)濟效率和社會保護一體化原則。人工智能立法應(yīng)該做到三個功能價值的協(xié)調(diào)。目前的重點是矯正既往科技立法的慣習,重點對前兩項功能有所限制,以彰顯必要的社會保護。其三,堅持科技風險和監(jiān)管一體化原則,或者叫科技風險和安全防范一體化原則。越是風險系數(shù)高的科技開發(fā)和應(yīng)用,越應(yīng)當增加風險的監(jiān)管強度。如果應(yīng)用于權(quán)力和責任更加重要的職位或情形,就應(yīng)該引入更嚴格的監(jiān)管甚至控制。鑒于人工智能存在較高風險性,今后還會發(fā)展為極高,因此有必要建立與其風險級別相應(yīng)的確保其安全可靠的監(jiān)管體系,包括引入與風險相適應(yīng)的監(jiān)管系統(tǒng)和方法。比如說,劃分不同主體或產(chǎn)品風險等級,進行相應(yīng)資質(zhì)管理;引入風險監(jiān)測體系,進行相應(yīng)的監(jiān)測、預警或應(yīng)急管理;建立內(nèi)外結(jié)合互動的安全管理體系;引入利益相關(guān)者決策和反映程序等等。其四,堅持行為治理和技術(shù)治理協(xié)同的原則。人工智能作為一種復雜技術(shù),其治理與對于一般的行為治理不同,存在技術(shù)專業(yè)化的特殊性,從科學的角度來說,除了通常法律的行為治理模式,應(yīng)當針對技術(shù)架構(gòu)的特點引入技術(shù)治理(22)。例如,為了達到更好地貫徹價值的效果,應(yīng)當在人工智能設(shè)計環(huán)節(jié)就為技術(shù)賦予價值觀,把必要的人本要求、社會需要預先嵌入進去,使其成為“價值—技術(shù)”“社會—技術(shù)”系統(tǒng)[21](P11,42-48)?,F(xiàn)在我們見到的“隱私設(shè)計保護”就有這種妙用。在重大決策、執(zhí)法(警務(wù)機器人)或者致命效應(yīng)(自動化致命武器)的人工智能系統(tǒng)設(shè)計中,安全技術(shù)同步設(shè)計、價值和社會功能預先嵌入設(shè)計、運行與風險評估會同設(shè)計,都是十分必要的。
最后,從立法范疇看,人工智能立法作為科技立法的特別領(lǐng)域法,應(yīng)當注意一般與具體的結(jié)合,還要注意自身與其他法律的交叉。前者,體現(xiàn)為人工智能立法存在一般規(guī)范與具體規(guī)范的合理分置問題。人工智能一般法,通常包括人工智能一般市場規(guī)范、一般風險規(guī)范以及一般政策規(guī)范的內(nèi)容;而人工智能特別法,目前存在不同劃分方法,現(xiàn)在的一種趨勢是,按照人工智能具體場景或者應(yīng)用功能類型做出進一步細分,比如人工智能傳媒、內(nèi)容分發(fā)、電商平臺、社交平臺、搜索算法、公共服務(wù)(廣義包括政務(wù)、司法等)、交通(無人機、自動駕駛)、智能輔助、醫(yī)療診斷、法律助手等。后者,則指應(yīng)當注意人工智能立法與憲法、行政法、民商法、刑法、訴訟法、經(jīng)濟法、環(huán)境法、知識產(chǎn)權(quán)法、國際法等既有法律的交叉關(guān)系,它主要是以與普通法有重要區(qū)別的科技特別法而定位。所以,一方面人工智能領(lǐng)域存在傳統(tǒng)法律部門的交叉適用,另一方面卻在很多地方需要具體化、特殊化、進一步場景化。以經(jīng)濟法領(lǐng)域為例,最近幾年圍繞人工智能和大數(shù)據(jù)的使用,開始產(chǎn)生大數(shù)據(jù)、人工智能與競爭政策的新問題,出現(xiàn)了數(shù)據(jù)驅(qū)動型、人工智能驅(qū)動型的反競爭行為甚至是壟斷行為(23)[31](P1)。
五、結(jié)論:人工智能立法轉(zhuǎn)型引領(lǐng)科技與法律新型關(guān)系
近代以來科技立法以經(jīng)濟主義之名,在“技術(shù)—經(jīng)濟”軌道上走了很久,兩三百年以來收獲了巨大的技術(shù)經(jīng)濟紅利。我們?yōu)橹哺冻隽瞬环频拇鷥r,特別是在近前以來越來越感受科技對人類安全的威脅、對于社會公平和安定的不斷沖擊。進而,自主化技術(shù)和技術(shù)壟斷成為時代標簽,而我們在其中正在失去作為人的自主性,被裹挾、被無奈。那么,人工智能時代,我們還應(yīng)該這樣嗎?當然不應(yīng)該。人工智能科技以其潛在的威力正在塑形一個新的時代;而人類法律智慧在這個時刻應(yīng)該感受自身元神的召喚!我們在期待見證人工智能新經(jīng)濟的時刻,也應(yīng)擔心,這種人工智能科技,會使得人類被混淆和取代嗎?我們的“人性”會被擠出這個世界的主要位置嗎?我們應(yīng)該如何應(yīng)對和布局,才算理順了人與人造物的基本關(guān)系?我們能夠接受或容忍與人工智能進行何種相通呢?
本文正是在這個意義上,提出人工智能立法應(yīng)當跳出路徑依賴,告別“技術(shù)經(jīng)濟人”簡單假設(shè),全新打量技術(shù)社會場域的新思考,兼顧經(jīng)濟與社會,即要從“技術(shù)—經(jīng)濟”向“技術(shù)—社會+經(jīng)濟”轉(zhuǎn)型。既擁抱人工智能的經(jīng)濟福利,又發(fā)展和保全人類自身和社會??傊?,這種新范式體現(xiàn)著當代科技立法的新趨勢,演繹著科技新人文主義,引領(lǐng)法律與科技的關(guān)系新型化,由單一經(jīng)濟主義向社會和經(jīng)濟并重轉(zhuǎn)變,成就第四次工業(yè)革命中法律變革的精彩。
注釋:
①目前我國也有學者強調(diào)從技術(shù)化(人—技術(shù)—人)角度思考人工智能立法[1](P1)[2](P37-41)。
②2015年,歐洲議會向歐洲委員會提出的“關(guān)于機器人民事規(guī)則的建議”(Report with Recommendations to the Commission on Civil Law Rules on Robotics(2015/2103(INL)),大概是較早處理這一問題的立法建議[10]。關(guān)于人工智能發(fā)展引發(fā)人與人造物關(guān)系的法律思考,參見烏戈·帕加羅的《誰為機器人的行為負責》。
③笛卡爾的哲學立場和科學主義思想,參見笛卡爾的《哲學原理》。斯賓諾莎對于笛卡爾基于科學主義的哲學思想有重要研究,可參見斯賓諾莎的《笛卡爾哲學原理:依幾何方法證明》。
④英國是世界上最早建立專利制度的國家。開始是以英王特權(quán)方式出現(xiàn),早在1236年,英王就有授予波爾多市民色布制作技術(shù)15年壟斷權(quán)之舉,1331年再授予弗萊明商人織布染布特權(quán),1369年授予商人鐘表經(jīng)營權(quán),1561年授予制造白色石堿壟斷權(quán)。1617年,英國正式制定了第一部專門的專利法,把一種發(fā)明壟斷權(quán)即專利權(quán)授予最早的發(fā)明者,有效期14年,但作為對價,發(fā)明者必須公開技術(shù)。
⑤西方經(jīng)濟史及相關(guān)“技術(shù)—經(jīng)濟”范式的知識,可以參考厲以寧的《資本主義的起源:比較經(jīng)濟史研究》。
⑥例如,美國在1945年二戰(zhàn)結(jié)束之際,以“科學:沒有止境的前沿”為理由建立戰(zhàn)后的國家研究基金會,旨在發(fā)展和促進國家的科學研究和科學教育政策。
⑦歐盟1995年發(fā)布了《創(chuàng)新綠皮書》,提出改進創(chuàng)新環(huán)境的建議,1996年通過第一個《歐洲創(chuàng)新行動計劃》,2000年歐洲委員會提出“歐洲創(chuàng)新趨勢圖”,2005年歐盟委員會提出《研究與創(chuàng)新戰(zhàn)略》,2011年底公布《2020戰(zhàn)略創(chuàng)新計劃》。美國在奧巴馬時期的2009年和2011年發(fā)布了兩份《美國創(chuàng)新戰(zhàn)略》;特朗普執(zhí)政后對內(nèi)轉(zhuǎn)為重視自下而上的科技創(chuàng)新,2018年發(fā)布財年預算藍圖,對原有科技投入結(jié)構(gòu)作出重要調(diào)整,廢除《清潔能源計劃》《全球氣候變化計劃》等,轉(zhuǎn)而支持油氣和煤炭行業(yè)發(fā)展,對外則強推美國優(yōu)先。中國在2006年公布《國家中長期科學和技術(shù)發(fā)展規(guī)劃綱要(2006-2020)》,提出要在15年內(nèi)進入創(chuàng)新型國家行列;2012年11月,中共十八大明確提出走中國特色自主創(chuàng)新道路,實施創(chuàng)新驅(qū)動發(fā)展戰(zhàn)略,隨后中共中央、國務(wù)院印發(fā)了《關(guān)于深化科技體制改革加快國家創(chuàng)新體系建設(shè)的意見》;2016年8月,國務(wù)院發(fā)布了《“十三五”國家科技創(chuàng)新規(guī)劃》,明確了“十三五”時期科技創(chuàng)新的總體思路、發(fā)展目標、主要任務(wù)和重大舉措;2017年,中共十九大報告將創(chuàng)新放在新發(fā)展理念之首。
⑧參見中共中央、國務(wù)院1995年《關(guān)于加速科學技術(shù)進步的決定》和1999年《關(guān)于加強技術(shù)創(chuàng)新、發(fā)展高科技、實現(xiàn)產(chǎn)業(yè)化的決定》;2006年《國家中長期科學和技術(shù)發(fā)展規(guī)劃綱要(2006-2020)》以及中共中央、國務(wù)院《關(guān)于實施科技規(guī)劃綱要增強自主創(chuàng)新能力的決定》。
⑨20世紀90年代開始,中國也開始關(guān)注科技的工業(yè)安全、環(huán)境保護和特殊科技安全等科技社會問題,加強政策引導,并且陸續(xù)制定相關(guān)法律,包括《礦山安全法》(1992年制定)、《勞動法》(1994年制定,其中一章專門規(guī)定勞動安全衛(wèi)生)、《安全生產(chǎn)法》(2002年制定,2009年,2014年修訂)、《環(huán)境保護法》(1989年制定,2014年修訂)、《大氣污染防治法》(1987年制定,2018年修改)、《水污染防治法》(1984年制定,1996年、2008年、2017年修改)、《放射性污染防治法》(2003年制定)、《民用核設(shè)施安全監(jiān)督管理條例》(1986年制定)、《特種設(shè)備安全法》(2013年制定)、《網(wǎng)絡(luò)安全法》(2016年制定)、《核安全法》(2017年制定)和正在起草的《生物安全法》等。
⑩康德的財產(chǎn)權(quán)起源及其觀念,雖然論證起始于這種經(jīng)濟誘因,但是他最終從個人理性主義加以塑造,并提倡個人自由理念的財產(chǎn)權(quán)。康德的財產(chǎn)權(quán)理論,可參見康德的《法的形而上學原理:權(quán)利的科學》??档碌倪@一觀點,也為后來的布坎南所繼受。布坎南的財產(chǎn)權(quán)自由觀,在其《財產(chǎn)與自由》中有論述。
(11)歐盟數(shù)據(jù)保護委員會2015年發(fā)布的《應(yīng)對大數(shù)據(jù)挑戰(zhàn):呼吁通過設(shè)計和可責性實現(xiàn)透明性、用戶控制及數(shù)據(jù)保護》,禁止算法對窮人的或者弱勢群體的歧視,并且賦予質(zhì)疑公平算法化的可能性。
(12)對于消費者來說,可能最突出的社會公平,體現(xiàn)為人工智能算法帶來的信息不對稱、不透明、歧視(包容不夠)等問題,因此需要建立對稱、透明、包容的算法規(guī)則。
(13)2017年全球最大的職場社交平臺領(lǐng)英發(fā)布《全球人工智能領(lǐng)域人才報告》,根據(jù)該報告全球人工智能領(lǐng)域人才超過190萬人,美國擁有85萬,高居榜首,而中國只有不到5萬人。
(14)奧巴馬政府該報告主張:(1)投資和開發(fā)人工智能,著重推動科學、技術(shù)、工程學、數(shù)據(jù)領(lǐng)域(STEM)的人才培養(yǎng);(2)提供高質(zhì)量的早期教育,投資確保所有的美國人都能負擔得起中學以上的教育,同時擴展就業(yè)驅(qū)動的培訓和終身學習的機會以及為工作者提供更好的指導以完成工作過渡;(3)幫助轉(zhuǎn)型過程中的工人并賦予工人權(quán)力,確保大家廣泛共享由人工智能帶來的經(jīng)濟增長收益。決策者應(yīng)確保工人和求職者都能夠找到他們最適合的崗位,確保他們以工資上漲的形式獲得正確的工作回報。這包括加強失業(yè)保險、醫(yī)療補助、補充營養(yǎng)援助計劃(SNAP)和有需要家庭臨時援助(TANF)等關(guān)鍵支持以及實施新的計劃,例如工資保險以及為處于危機中的家庭提供緊急援助。工人賦權(quán)還包括加強對有需要的工人和家庭的關(guān)鍵保障措施,建立21世紀的退休制度,擴大享有醫(yī)療保健服務(wù)的人群的數(shù)量。增加工資、競爭力和工人議價能力以及實現(xiàn)稅收政策現(xiàn)代化和實施解決差異地域影響的戰(zhàn)略,將是支持工人和解決與勞動力市場變化相關(guān)重組問題的重要方面。
(15)我國已有專家正在關(guān)注人工智能時代的勞動法或勞動權(quán)問題??蓞⒁娡坑狼暗摹度斯ぶ悄?ldquo;搶飯碗”,〈勞動法〉的變革該順勢而為》、林嘉的《回應(yīng)信息時代的新問題在技術(shù)進步中更好保護勞動者權(quán)利》。
(16)關(guān)于數(shù)據(jù)財產(chǎn)權(quán)及其協(xié)同機制的研究,可參考龍衛(wèi)球的《數(shù)據(jù)新型財產(chǎn)權(quán)構(gòu)建及體系研究》和《再論企業(yè)數(shù)據(jù)財產(chǎn)權(quán)化機制》。
(17)在某種意義上,人工智能的系統(tǒng)安全包括依賴的網(wǎng)絡(luò)安全,也屬于可以增進信任的范疇。
(18)以美國為例,美國行業(yè)組織便就自動駕駛汽車的隱私保護問題倡導了自律保護要求,以增進消費者信任。2014年11月,汽車制造商聯(lián)盟和全球汽車制造商協(xié)會發(fā)布《消費者隱私保護原則——汽車技術(shù)和服務(wù)隱私保護原則》的報告,明確提出隱私問題對于消費者和汽車廠商都非常重要,要求參與該原則制定的19家汽車廠商都承諾遵守報告關(guān)于自動駕駛汽車隱私保護的要求。2017年2月,未來隱私論壇和美國汽車經(jīng)銷商協(xié)會發(fā)布《汽車中的個人數(shù)據(jù)》(Personal Data In Your Car),向消費者介紹車輛收集的數(shù)據(jù)類型、有關(guān)收集使用指南以及用戶可能擁有的選項。
(19)2016年英國下議院科學與技術(shù)委員會《機器人與人工智能》認為,雖然現(xiàn)在為這個新興領(lǐng)域制定全行業(yè)法規(guī)還為時過早,但現(xiàn)在開始仔細審查人工智能系統(tǒng)的道德、法律和社會影響至關(guān)重要(報告第25頁)。建議在艾倫圖靈研究所設(shè)立一個常設(shè)人工智能委員會,以檢查人工智能近期和潛在的社會、倫理和法律影響。
(20)歐盟委員會的人工智能高級專家組2018年12月發(fā)布的《可信人工智能倫理指南》提出,實現(xiàn)可信人工智能的七大關(guān)鍵為:個人主體與監(jiān)督;穩(wěn)定與安全;隱私與數(shù)據(jù)治理;透明;多樣、非歧視和公正;社會與環(huán)境發(fā)展;責任。這主要是從可信倫理角度出發(fā)的構(gòu)建,值得研究。
(21)參見我國國務(wù)院2017年新一代《人工智能發(fā)展規(guī)劃》第一部分“戰(zhàn)略態(tài)勢”第四段,描述了這種社會建設(shè)要求:“人工智能帶來社會建設(shè)的新機遇。我國正處于全面建成小康社會的決勝階段,人口老齡化、資源環(huán)境約束等挑戰(zhàn)依然嚴峻,人工智能在教育、醫(yī)療、養(yǎng)老、環(huán)境保護、城市運行、司法服務(wù)等領(lǐng)域廣泛應(yīng)用,將極大提高公共服務(wù)精準化水平,全面提升人民生活品質(zhì)。人工智能技術(shù)可準確感知、預測、預警基礎(chǔ)設(shè)施和社會安全運行的重大態(tài)勢,及時把握群體認知及心理變化,主動決策反應(yīng),將顯著提高社會治理的能力和水平,對有效維護社會穩(wěn)定具有不可替代的作用。”
(22)人工智能的技術(shù)治理這一點,與互聯(lián)網(wǎng)治理具有的技術(shù)復雜性非常相似。
(23)2019年6月,斯坦福大學法學院召開的“數(shù)據(jù)經(jīng)濟最佳實踐國際會議”上,來自全球的學者和實務(wù)專家在很大一個環(huán)節(jié)討論了人工智能和大數(shù)據(jù)引發(fā)的新型反競爭和壟斷問題,值得關(guān)注。
原文參考文獻:
[1]蘭登·溫納.自主性技術(shù):作為政治思想主題的失控技術(shù).楊海燕譯.北京:北京大學出版社,2014.
[2]齊延平.論人工智能時代法律場景的變遷.法律科學(西北政法大學學報),2018,36(4).
[3]尼爾·波斯曼.技術(shù)壟斷:文化向技術(shù)投降.何道寬譯.北京:中信出版社,2019.
[4]CB Insights.The Race For AI:Google,Twitter,Intel,Apple In A Rush To Grab Artificial Intelligence Startups,2017.[2017-07-22]https://aitopics.org/doc/news:3D341331/.
[5]馬修·薩爾加尼克.計算社會學:數(shù)據(jù)時代的社會研究.趙紅梅,趙婷譯.北京:中信出版社,2019.
[6]理查德·羅格斯.數(shù)字方法.上海:上海譯文出版社,2018.
[7]烏爾里希·貝克.風險社會:新的現(xiàn)代化之路.張文杰,何博閣譯.南京:譯林出版社,2018.
[8]酈全民.用計算的觀點看世界.桂林:廣西師范大學出版社,2016.
[9]葉夫根尼·莫洛佐夫.技術(shù)致死:數(shù)字化生存的陰暗面.北京:電子工業(yè)出版社,2014.
[10]European Parliament.With Recommendations to the Commission on Civil Law Rules on Robotics.Brussels:Committee on Legal Affairs,2015.[2017-1-27]http://www.europarl.europa.eu/doceo/document/A-8-2017-0005EN.html?Redirect.
[11]龍衛(wèi)球.科技法迭代視角下的人工智能立法.法商研究.2020,(1).
[12]劉立.科技政策學研究.北京:北京大學出版社,2011.
[13]約翰·法比安·維特.事故共和國:殘疾的工人、貧窮的寡婦與美國法的重構(gòu).田雷譯.上海:上海三聯(lián)書店,2008.
[14]李晟.略論人工智能語境下的法律轉(zhuǎn)型.法學評論,2018,36(1).
[15]洛克.政府論:下.葉啟芳,瞿菊農(nóng)譯.北京:商務(wù)印書館,1964.
[16]羅伯特·P.莫杰思.知識產(chǎn)權(quán)正當性解釋.北京:商務(wù)印書館,2019.
[17]卡爾·馬克思.資本論.吳半農(nóng)譯.上海:商務(wù)印書館,1934.
[18]蘭登·溫納.自主化技術(shù):作為政治思想主題的失控技術(shù).楊海燕譯.北京:北京大學出版社,2014.
[19]Bruno Bettelhein.The Informed Heard:Autonomy in a Mass Age.New York:The Free Press,1960.
[20]克勞斯·施瓦布.第四次工業(yè)革命:轉(zhuǎn)型的力量.李菁譯.北京:中信出版社,2016.
[21]克勞斯·施瓦布,尼古拉斯·戴維斯.第四次工業(yè)革命——行動路線圖:打造創(chuàng)造型社會.世界經(jīng)濟論壇北京代表處譯.北京:中信出版社,2018.
[22]國務(wù)院.新一代人工智能發(fā)展規(guī)劃.[2017-07-20]http://www.gov.cn/xinwen/2017-07/20/content_5212064.htm.
[23]European Data Protection Board(EDPB).Law Enforcement in the Age of Big Data and Surveillance Intermediaries:Transparency Challenges.Brussels:EDPB,2015.[2019-12-02]https://edps.europa.eu/sites/edp/files/publication/15-11-19_big_data_en.pdf.
[24]Kristin Lee.Artificial Intelligence,Automation,and the Economy.[2016-12-20]https://obamawhitehouse.archives.gov/blog/2016/12/20/artificial-intelligence-automation-and-economy.
[25]European Commission.Communication Artificial Intelligence for Europe.Brussels:European Commission,2018.[2019-12-02]https://ec.europa.eu/digital-single-market/en/news/communication-artificial-intelligence-europe.
[26]羅賓·漢森.機器時代:機器人統(tǒng)治地球后的工作、愛情和生活.劉雁譯.北京:機械工業(yè)出版社,2018.
[27]梅夏英.在分享和控制之間數(shù)據(jù)保護的私法局限和公共秩序構(gòu)建.中外法學.2019,(4).
[28]馬克·格蘭諾維特.社會與經(jīng)濟:信任、權(quán)力和制度.王水雄,羅家德譯.北京:中信出版社,2019.
[29]House of Commons Science and Technology Committee.Robotics and artificial Intelligence.House of Commons,2016.[2019-12-02]https://publications.parliament.uk/pa/cm201617/cmselect/cmsctech/145/145.pdf.
[30]European Commission.Ethics guidelines for trustworthy AI.[2019-04-08]
https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai.
評論排行