歐盟立法者支持生成性人工智能的透明度和安全規(guī)則|關(guān)于模式識別中的生物識別信息處理自動化倫理
【ZiDongHua 之人文化天下收錄關(guān)鍵詞:歐盟 人工智能 模式識別 生物識別 OpenA ChatGPT AIGC 】
歐盟立法者支持生成性人工智能的透明度和安全規(guī)則【外媒編譯】
在5月12日早晨的一系列歐洲議會投票中,議員們支持了對該集團(tuán)草擬的AI立法的一系列修訂案,包括對所謂的基礎(chǔ)模型的一套要求,這些模型支撐著OpenAI的ChatGPT等生成性AI技術(shù)。
修訂案還承諾基礎(chǔ)模型制作者將減少其系統(tǒng)的能源消耗和資源使用,并在即將由AI法案建立的歐盟數(shù)據(jù)庫中注冊他們的系統(tǒng)。而生成性AI技術(shù)的提供者(如ChatGPT)有義務(wù)遵守法規(guī)中的透明度義務(wù)(確保用戶被告知內(nèi)容是由機(jī)器生成的);在他們的系統(tǒng)生成的內(nèi)容中應(yīng)用“適當(dāng)?shù)谋Wo(hù)措施”;并提供一個關(guān)于用于訓(xùn)練他們的AI的任何受版權(quán)保護(hù)的材料的摘要。
議會議員爭論的其他關(guān)鍵領(lǐng)域包括生物特征監(jiān)測——在這里,議員們也同意了旨在加強(qiáng)基本權(quán)利保護(hù)的改變。
兩個委員會的議員,內(nèi)部市場委員會和公民自由委員會,今天對大約3,000個修訂案進(jìn)行了投票,通過了關(guān)于計劃中的人工智能規(guī)則手冊的草案授權(quán),贊成票84票,反對票7票,棄權(quán)票12票。
今天由各委員會達(dá)成一致的關(guān)鍵修訂案包括擴(kuò)大禁止行為的清單,增加了對AI系統(tǒng)的“侵入性”和“歧視性”使用的禁令,例如:
后者,即完全禁止美國有爭議的AI公司Clearview AI的商業(yè)模式,正好在法國數(shù)據(jù)保護(hù)監(jiān)察機(jī)構(gòu)因其未能遵守現(xiàn)有的歐盟法律而再次對該初創(chuàng)公司進(jìn)行罰款的一天后。因此,對選擇無視該集團(tuán)規(guī)則的外國實體執(zhí)行此類禁令無疑將仍然是一個挑戰(zhàn)。但第一步是有硬性法律。
預(yù)計下個月(在6月12日至15日的會議期間),議會將進(jìn)行全體投票以確定授權(quán),之后將與理事會開始三方對話,以達(dá)成關(guān)于該文件的最終妥協(xié)。
民間社會團(tuán)體和歐盟機(jī)構(gòu)呼吁進(jìn)行修訂以增強(qiáng)對基本權(quán)利的保護(hù)——歐洲數(shù)據(jù)保護(hù)監(jiān)察員和歐洲數(shù)據(jù)保護(hù)委員會等機(jī)構(gòu)呼吁該立法進(jìn)一步發(fā)展,并敦促歐盟立法者在公共場所全面禁止生物特征監(jiān)控。
議員在今天的委員會投票中同意的其他變動包括擴(kuò)展法規(guī)的(固定)“高風(fēng)險”領(lǐng)域的分類——包括對人們的健康,安全,基本權(quán)利和環(huán)境的危害。
同時,議員們也支持改變什么算作高風(fēng)險——建議讓AI開發(fā)者決定他們的系統(tǒng)是否足夠重要以滿足適用義務(wù)的標(biāo)準(zhǔn),這是數(shù)字權(quán)利團(tuán)體警告(見下文)的“主要紅旗”。
缺乏對受有害AI影響的個體有意義的救濟(jì)是民間社會團(tuán)體在2021年秋季對修訂的重大呼吁中提出的一個主要漏洞,他們指出了委員會的AI法案提案和該集團(tuán)的通用數(shù)據(jù)保護(hù)法之間的顯著差異,根據(jù)后者,個人可以向監(jiān)管機(jī)構(gòu)投訴并尋求其他形式的救濟(jì)。
同時,為了回應(yīng)永恒的行業(yè)哭訴,即過多的監(jiān)管對“創(chuàng)新”有害,他們還為研究活動和提供開源許可證的AI組件增加了規(guī)則的豁免權(quán),同時指出法律促進(jìn)了由公共機(jī)構(gòu)建立的監(jiān)管沙盒,或受控環(huán)境,以測試AI的部署前的表現(xiàn)。
它指出的另一個關(guān)鍵勝利是對部署高風(fēng)險AI的責(zé)任和透明度義務(wù)的包含 - 他們有義務(wù)進(jìn)行基本權(quán)利影響評估以及受影響的人們可以挑戰(zhàn)AI系統(tǒng)的機(jī)制。
“這份新文本比委員會原始提案在控制我們的面部,身體和身份的敏感數(shù)據(jù)的濫用方面要好得多,”另一位專注于生物識別的EDRi高級政策顧問Ella Jakubowska補(bǔ)充道。
對此,Chander指出,議員未能將AI用于促進(jìn)“非法推回”,或以歧視性方式對人進(jìn)行分檔的做法列入禁止的實踐列表 - 這是EDRi曾經(jīng)呼吁的。“不幸的是,[歐洲議會]對人民權(quán)利的支持并未阻止移民免受AI帶來的傷害,包括AI用于推動推回的情況," 她說,并建議:“沒有這些禁止,歐洲議會正在為在歐盟邊界開設(shè)全景監(jiān)控系統(tǒng)打開大門。”
“盡管議會在生物識別方面的做法非常全面,但我們希望看到的是進(jìn)一步限制一些實踐。盡管有對公共面部識別的回顧性禁令,但法律執(zhí)法部門仍然有例外,我們認(rèn)為這仍然存在風(fēng)險。尤其是,它可能激勵大規(guī)模保留CCTV錄像和生物識別數(shù)據(jù),這是我們明確反對的,”Jakubowska補(bǔ)充說,并表示該團(tuán)體還希望看到無論情境如何,歐盟都會禁止情緒識別 - “因為這種‘技術(shù)’從根本上來說是有缺陷的,不科學(xué)的,而且設(shè)計上就是歧視的”。
“不幸的是,議會提出了一些非常令人擔(dān)憂的變化,這些變化與什么算作‘高風(fēng)險AI’有關(guān)。隨著文本中的變化,開發(fā)者將能夠決定他們的系統(tǒng)是否‘足夠重要’以被視為高風(fēng)險,這對于執(zhí)行這項立法來說是一個主要的紅旗,”Chander建議。
當(dāng)被問及是否期待理事會試圖解開對生物識別監(jiān)控擴(kuò)大保護(hù)的一些問題時,Jakubowska表示:“我們可以從去年理事會的總體立場看出,他們希望淡化委員會原始文本中已經(jīng)不足的保護(hù)。盡管沒有可靠的有效性證據(jù),但有大量的證據(jù)證明其有害,我們看到很多成員國政府都熱衷于保留進(jìn)行生物識別大規(guī)模監(jiān)控的能力。
從公民社會給出的另一項早期評估中,愛爾蘭公民自由理事會(ICCL)的高級研究員Kris Shrishak,該理事會也參加了2021年對AI法案進(jìn)行重大修改的呼吁,他也對執(zhí)行挑戰(zhàn)提出了警告,他警告說,盡管議會通過明確允許監(jiān)管機(jī)構(gòu)進(jìn)行遠(yuǎn)程檢查的修訂案加強(qiáng)了可執(zhí)行性,但他認(rèn)為,議會同時阻止了監(jiān)管機(jī)構(gòu)在調(diào)查中訪問AI系統(tǒng)的源代碼。
在積極的一面,他表示,議會已經(jīng)向解決歐盟委員會對AI系統(tǒng)定義的“不足”邁出了一步,特別是將生成性AI系統(tǒng)納入范圍,并對其實施透明度義務(wù),他稱這是“解決其危害的關(guān)鍵一步”。
版權(quán)修訂案只要求公司提供用于訓(xùn)練的版權(quán)保護(hù)數(shù)據(jù)的摘要——這似乎意味著將讓權(quán)利持有人去起訴。
“研究是一個從法規(guī)范圍內(nèi)遺留下來的漏洞。這可能會被公司利用,”他建議說。“在AI的背景下,這是一個大漏洞,因為大部分研究正在公司中進(jìn)行。我們已經(jīng)看到谷歌說他們正在與Bard‘實驗’。此外,我預(yù)計有些公司會聲稱他們開發(fā)AI組件而不是AI系統(tǒng)(我已經(jīng)在關(guān)于通用AI的討論中從一個大公司那里聽到過這個。這是他們?yōu)槭裁碐PAI[通用AI]不應(yīng)該被監(jiān)管的論點(diǎn)之一)。”
該基金會的高級政策顧問Alexander Sander告訴TechCrunch:“大科技公司將一切外包給微型企業(yè)而不再部署它們的可能性極小。一旦他們部署,他們再次落入法規(guī)之下(如果大于微型企業(yè))。”
他補(bǔ)充說,該組織對議會的提議總體上感到滿意,盡管批評了一些“超級復(fù)雜的措辭”,以及該規(guī)定僅被包含在一項序言(即而不是一篇文章)中。
文章來源于網(wǎng)安尋路人,作者洪延青
評論排行