《歐洲人工智能法》最終官方文本發(fā)布
【ZiDongHua 之人文化天下收錄關鍵詞: 人工智能 人臉識別 生物識別技術】
《歐洲人工智能法》最終官方文本發(fā)布
2024年7月12日,《歐盟官方公報》正式印發(fā)了具有里程碑意義的《歐洲人工智能法》的最終文本。該法案采取了分階段生效和基于風險等級差異的治理策略。

2024 年 11 月 2 日之前,各成員國指定人工智能監(jiān)管機構
每個成員國應指定一個承擔高風險人工智能系統(tǒng)監(jiān)管職責的公共機構,并公布其名單。各成員國應將該名單通知委員會和其他成員國,并應不斷更新該名單。
2025年2月2日開始,禁止使用人工智能的清單將在法律生效六個月后適用
被禁止(或“不可接受的風險”)的人工智能用例將很快成為非法,包括會信用評分;通過無針對性地抓取互聯(lián)網或閉路電視來編譯人臉識別數據庫;執(zhí)法部門在公共場所使用實時遠程生物識別技術,除非有幾種例外情況之一,例如在尋找失蹤或被綁架人員期間。
2025年5月2日之前,歐洲人工智能辦公室應當發(fā)布業(yè)務守則
人工智能辦公室應鼓勵和促進在歐盟一級制定業(yè)務守則,以便在考慮到國際做法的情況下,促進《歐洲人工智能法》的正確實施。業(yè)務守則最遲應在2025年5月2日之前準備完畢。人工智能辦公室應采取必要步驟,包括根據第7款邀請?zhí)峁┱摺救斯ぶ悄苻k公室可邀請所有通用人工智能模型提供者遵守業(yè)務守則。對于不構成系統(tǒng)性風險的通用人工智能模型的提供者來說,這種遵守可能僅限于第53條規(guī)定的義務,除非其明確宣布有意加入完整的守則?!?/div>
如果到2025年8月2日,業(yè)務守則仍不能最終確定,或者如果在根據本條第6款進行評估后認為業(yè)務守則不夠充分,歐盟委員會可以通過執(zhí)行法案的方式,以履行第53條和第55條規(guī)定的義務提供通用規(guī)范。這些執(zhí)行法案應根據第98條第2款規(guī)定的審查程序通過。
2025年8月2日開始,通用人工智能相關的規(guī)定將開始適用
因為與治理和符合性評估系統(tǒng)相關的基礎設施應在2026年8月2日之前運行,因此關于通知機構和治理結構的規(guī)定應從2025年8月2日起適用。鑒于技術進步的快速步伐和通用人工智能模型的采用,通用人工智能模型提供者的義務應從2025年8月2日起適用。為了使提供者能夠及時證明合規(guī),歐盟人工智能辦公室應在2025年5月2日之前準備好《通用人工智能模型的行為準則》。人工智能辦公室應確保分類規(guī)則和程序根據技術發(fā)展保持最新。此外,成員國應制定并向歐盟委員會通報有關處罰的規(guī)定,包括行政罰款,并確保在本規(guī)定適用之日之前正確有效地實施這些規(guī)定。因此,關于處罰的規(guī)定應從2025年8月2日起適用。
成員國應向歐盟委員會通報通知機構和市場監(jiān)督機構的身份、這些機構的任務以及隨后的任何變動。成員國應在2025 年 8 月 2 日之前,通過電子通信手段公布有關如何與主管機構和單一聯(lián)絡點取得聯(lián)系的信息。成員國應指定一個市場監(jiān)督機構作為本條例的單一聯(lián)絡點,并應將單一聯(lián)絡點的身份通知歐盟委員會。歐盟委員會應公布單一聯(lián)絡點名單。
2025 年8月2日之前,以及此后每兩年一次,成員國應向歐盟委員會報告國家主管機關的財政和人力資源狀況,并評估其是否充足。歐盟委員會應將這些信息轉交歐洲人工智能委員會討論并提出可能的建議。
在收到與第3條第49款第c項所述嚴重事件有關的通知后,相關市場監(jiān)督機構應通知第77條第1款所述國家公共機構或機構。歐盟委員會應制定專門的指南,以促進本條第1款規(guī)定的義務的履行。該指南2025年8月2日之前發(fā)布,并應定期評估。
2026年2月2日之前,歐盟委員會需要提出建立后市場監(jiān)測計劃模板,并列出計劃所列要素清單
后市場監(jiān)測系統(tǒng)應以后市場監(jiān)測計劃為基礎。后市場監(jiān)測計劃應成為附件四所提及的技術文件的一部分。歐盟委員會應在2026年2月2日之前通過一項執(zhí)行法案,詳細規(guī)定建立后市場監(jiān)測計劃模板,并列出計劃所列要素清單。該執(zhí)行法案應根據第98條第2款規(guī)定的審查程序通過。
歐洲委員會應在咨詢歐洲人工智能委員會后,不遲于2026年2月2日,提供指南,具體說明根據第96條實際實施本條,以及高風險和非高風險人工智能系統(tǒng)用例的綜合實例清單。
2026年8月2日之前,與治理和符合性評估系統(tǒng)相關的基礎設施應在2026年8月2日之前運行
成員國應在國家一級至少建立一個人工智能監(jiān)管沙盒,該沙盒最遲應在2026 年 8 月 2 日投入使用。該沙盒也可以與其他一個或多個成員國主管機構聯(lián)合建立。歐盟委員會可為人工智能監(jiān)管沙盒的建立和運行提供技術支持、建議和工具。該義務也可通過參加現(xiàn)有的沙盒來履行,只要這種參與能為為參與的成員國提供同等水平的國家層面的覆蓋。
2027年8月2日之前,
在2025年8月2日之前已投放市場的通用人工智能模型的提供者應采取必要步驟,以便在2027年8月2日之前遵守本條例規(guī)定的義務
在不影響第113條第3款a項所述第5條的適用的情況下,本條例適用于在2026年8月2日之前已投放市場或投入使用的高風險人工智能系統(tǒng)(本條第1款所述系統(tǒng)除外)的經營者,但僅限于自該日起這些系統(tǒng)的設計發(fā)生重大變化的情況。對于擬由公共機構使用的高風險人工智能系統(tǒng),此類系統(tǒng)的提供者和部署者應采取必要步驟,在2030年8月2日之前遵守本條例的要求。
2028年11月之前,歐洲委員會應當就監(jiān)管權力下放問題起草一份報告
歐洲委員會自2024年8月1日起,對委員會第6條第6款和第7款、第7條第1款和第3款、第11條第3款、第43條第5款、第43條第5款、第51條第3款、第52條第4款以及第53條第5款和第(6)款所確定的特別變通授權,有效期為五年。歐盟委員會應在五年期結束前的九個月內起草一份有關授權的報告。除非歐洲議會或歐盟理事會在每一期限結束前三個月內反對延長,否則授權期限將被默許延長至相同期限。
2030年12月21日之前,大型信息技術系統(tǒng)組成部分的人工智能系統(tǒng)
在不影響第113條第3款第a項所述第5條的適用的情況下,作為附件十所列法案所建立的大型信息技術系統(tǒng)組成部分的人工智能系統(tǒng),如果在2027年8月2日之前已經投放市場或投入使用,則應在2030年12月31日之前使其符合本條例的規(guī)定。
在對附件十所列法案建立的每個大型人工智能系統(tǒng)進行評估時,應考慮本條例中規(guī)定的要求根據這些法案的規(guī)定,以及在這些法案被取代或修訂的情況下,對這些法案進行評估。
風險分級治理路徑
《歐洲人工智能法》對 AI 開發(fā)人員施加了不同的義務,具體取決于具體場景和感知到的風險。大部分人工智能用途將不受監(jiān)管,因為它們被認為是低風險的,但法律也禁止了少數人工智能的潛在應用場景。
例如,禁止基于自然人的生物特征數據,例如個人的臉部或指紋,來推斷或推斷個人的政治觀點、工會會員身份、宗教或哲學信仰、種族、性生活或性取向的生物特征識別分類系統(tǒng)。這一禁令不應包括根據生物特征數據對按照歐盟或國家法律獲取的生物特征數據集進行合法的標記、過濾或分類,例如根據頭發(fā)顏色或眼睛顏色對圖像進行分類,這些數據可用于執(zhí)法領域。
由公共或私人行為者提供的提供自然人社會評分的人工智能系統(tǒng)可能會導致歧視性結果和對某些群體的排斥。它們可能會侵犯尊嚴和不受歧視的權利以及平等和公正的價值觀。這類人工智能系統(tǒng)根據與自然人或其群體在多種背景下的社會行為或已知、推斷或預測的個人或個性特征有關的多個數據點(data points),對其進行評估或分類。從這類人工智能系統(tǒng)中獲得的社會評分可能會導致自然人或其整個群體在社會環(huán)境中受到不利或不利待遇,而這些評分與最初生成或收集數據的環(huán)境無關,或與其社會行為的嚴重程度不相稱或不合理的不利待遇無關。因此,應禁止人工智能系統(tǒng)采用這種不可接受的評分做法,并導致這種有害或不利的結果。這一禁令不應影響根據歐盟和國家法律為特定目的而對自然人進行的合法評估。
以執(zhí)法為目的,在公開場所使用人工智能系統(tǒng)“實時”遠程生物特征識別自然人,被視為對有關人員的權利和自由的特別侵犯,在某種程度上,它可能影響很大一部分民眾的私人生活,使他們處于不斷受到監(jiān)視的感覺,間接阻止民眾行使集會自由和其他基本權利。用于對自然人進行遠程生物特征識別的人工智能系統(tǒng)在技術上的不準確性可能會導致有偏差的結果并產生歧視性影響。在年齡、民族、種族、性別或殘疾方面,這種可能的偏差結果和歧視性影響尤為重要。此外,影響的即時性以及與使用“實時”操作的這種系統(tǒng)有關的進一步檢查或糾正的機會有限,給執(zhí)法活動所涉及的人員的權利和自由帶來了更大的風險。因此,《歐洲人工智能法》禁止以執(zhí)法為目的使用這些系統(tǒng),除非在詳盡列出和狹義界定的情況下,其使用以實現(xiàn)重大公共利益為必要,其重要性超過了風險影響。這些情況包括尋找某些犯罪受害者,包括失蹤人員;自然人的生命或人身安全受到某些威脅或受到恐怖襲擊。
高風險人工智能系統(tǒng)只有在符合某些強制性要求的情況下才應投放到歐盟市場或投入使用或使用。這些要求應確保歐盟可用或其投放到歐盟使用的高風險人工智能系統(tǒng)不會對歐盟法律認可和保護的重要歐盟公共利益構成不可接受的風險。被確定為高風險的人工智能系統(tǒng)應限于那些對歐盟內人員的健康、安全和基本權利有重大有害影響的系統(tǒng),且這種限制應最大限度地減少對國際貿易的任何潛在限制。根據本條例將人工智能系統(tǒng)劃分為高風險,并不一定意味著其作為產品的安全組件或本身作為產品的這一產品根據相關歐盟統(tǒng)一立法中規(guī)定的標準被視為高風險。尤其對于歐盟第2017/745號條例和歐盟第2017/746號條例,其中為中風險和高風險產品提供了第三方合格評定。
關于獨立的人工智能系統(tǒng),即非安全部件或本身為產品的高風險人工智能系統(tǒng),如果根據其預期目的,考慮到可能造成傷害的嚴重性及其發(fā)生的概率,它們對人的健康和安全或基本權利造成傷害的風險很高,而且它們用于本條例具體規(guī)定的一些預先確定的領域,則將它們歸類為高風險系統(tǒng)是適當的。確定這些系統(tǒng)所依據的方法和標準與歐盟委員會今后有權通過授權法案對高風險人工智能系統(tǒng)清單進行修訂時所設想的方法和標準相同,以考慮到技術的快速發(fā)展以及人工智能系統(tǒng)使用方面的潛在變化。
通用人工智能系統(tǒng)本身可用作高風險人工智能系統(tǒng),也可作為其他高風險人工智能系統(tǒng)的組成部分。因此,由于其特殊性,并為了確保在人工智能價值鏈上公平分擔責任,此類系統(tǒng)的提供者應與相關高風險人工智能系統(tǒng)的提供者密切合作,使其能夠遵守本條例規(guī)定的相關義務,并與根據本條例設立的主管機構合作,而不論其他提供者是將其用作高風險人工智能系統(tǒng)本身,還是將其用作高風險人工智能系統(tǒng)的組件,除非本條例另有規(guī)定。
向公眾提供除通用人工智能模型之外的工具、服務、流程或人工智能組件的第三方,如果這些工具、服務、流程或人工智能組件是在免費和開放許可下提供的,則不應被強制要求遵守針對人工智能價值鏈責任的要求,特別是對使用或集成這些工具、服務、流程或人工智能組件的提供者的責任。除通用人工智能模型外,應鼓勵免費開源工具、服務、流程或人工智能組件的開發(fā)者實施廣泛采用的文檔做法,如模型卡和數據表,以此加快人工智能價值鏈上的信息共享,從而在歐盟推廣值得信賴的人工智能系統(tǒng)。
歐盟委員會可制定并推薦高風險人工智能系統(tǒng)提供者與提供高風險人工智能系統(tǒng)所使用或集成的工具、服務、組件或流程的第三方之間的自愿示范合同條款,以促進價值鏈上的合作。在制定自愿示范合同條款時,歐盟委員會還應考慮到適用于特定部門或商業(yè)案例的可能合同要求。
來源:清華大學智能法治研究院綜合整理、編譯
我要收藏
點個贊吧
轉發(fā)分享
評論排行