新一代人工智能正在全球范圍內(nèi)蓬勃興起,為經(jīng)濟社會發(fā)展注入新動能,但人工智能技術如果運用不當,也會給公共安全、道德倫理、社會治理等帶來威脅。近年來,加大力度防控人工智能安全風險已成為全球共識,我國在大力發(fā)展人工智能發(fā)展的同時,也需要關注內(nèi)容安全,加強風險防控。

9月5日,人民中科董事長,中國科學院自動化研究所模式識別國家重點實驗室研究員,知名青年AI專家李兵受邀接受CCTV10專訪。

李兵認為“人工智能技術的快速發(fā)展,在一定程度上為網(wǎng)絡安全的發(fā)展提供了很大的支撐,同時也是一把雙刃劍,也會對網(wǎng)絡安全帶來新的隱患。”

01

人工智能發(fā)展帶來一定安全風險

人工智能技術存在算法黑箱、技術濫用、侵犯隱私等安全問題,隨著人工智能與實體經(jīng)濟深度融合,這些風險將會進一步疊加放大,給公共安全、道德倫理、社會治理等帶來挑戰(zhàn)。

技術內(nèi)生風險。

深度學習作為運用最為廣泛的人工智能技術,存在“算法黑箱”“不可解釋”等缺點,難以對其實施檢測檢查,一旦算法模型中存在漏洞,其產(chǎn)生的安全風險問題可能對社會安全產(chǎn)生重大威脅。華盛頓大學等高校的研究人員在一篇論文中披露,自動駕駛汽車并不能“真正理解”指示牌上的圖案,而是通過一些特征來進行識別,人們只需要在交通標志上用貼紙進行相應處理,就可以讓系統(tǒng)錯誤地將停車標志識別為限速標志。

技術濫用風險。

技術發(fā)展是把雙刃劍,隨著人工智能應用日益深入,出現(xiàn)了利用計算機視覺、智能語音等技術實現(xiàn)“換臉”“換音”的情形,不但侵犯個人隱私,還可能被用于實施詐騙,產(chǎn)生嚴重后果。2019 年 3 月,《華爾街日報》報道,有犯罪分子使用深度偽造技術成功模仿了英國某能源公司在德國母公司CEO的聲音,詐騙了220000歐元,造成嚴重的財產(chǎn)損失。

數(shù)據(jù)隱私風險。

人工智能技術訓練需要依靠大量數(shù)據(jù),但當前數(shù)據(jù)的獲取、使用的監(jiān)督管理尚不完善,存在隱私泄露、數(shù)據(jù)濫用等風險,同時數(shù)據(jù)作為重要資產(chǎn),跨境流動時處理不當還可能對國家安全產(chǎn)生威脅。2020年2月,服務于600多家執(zhí)法機構及安保公司的美國人臉識別創(chuàng)業(yè)公司Clearview AI稱其客戶面部信息數(shù)據(jù)庫被盜,據(jù)報道,Clearview AI從網(wǎng)絡社交媒體上抓取了超過30億張照片,這些數(shù)據(jù)在采集時并未明確獲得用戶的同意。

02

人工智能技術是把雙刃劍

李兵認為“網(wǎng)絡安全一直是一個永恒的主題,有新的技術引入就一定會帶來新的安全隱患,隨著人工智能技術的快速發(fā)展,在一定程度上為網(wǎng)絡安全的發(fā)展提供了很大的支撐,同時也是一把雙刃劍,也會對網(wǎng)絡安全帶來新的隱患。比如虛假信息偽造、深度模型本身的安全隱患等。”

作為國內(nèi)資深內(nèi)容安全領域?qū)<?,人民中科?nèi)容安全公司創(chuàng)始人,

目前各城市已在數(shù)字化、智能化的道路上獲益,實現(xiàn)管理效能提升、運營成本降低,為智能城市發(fā)展注入“數(shù)字動力”。當前世界上已有2億個攝像頭監(jiān)視著我們的一舉一動,城市中隨時有數(shù)字化攝像設備,觀察和監(jiān)視著個體的行為,并識別嫌疑人員的相關行為,并提高了公共空間的安全性,但不利的一面是容易陷入到監(jiān)控視頻的海洋中,尋找準確的圖像猶如大海撈針。

而面部識別技術為該問題提供了解決方案,李兵指出,面部識別技術目前比較主流的是基于深度學習、深度神經(jīng)網(wǎng)絡的方法,該方法是一個端到端的黑盒,只需要關注輸入大量的訓練樣本,輸出相應結果的過程,不需要關注模型本身,技術性能相對較好,能將人臉識別的性能大幅度提高,但同時也存在一個缺點,需要大量的大數(shù)據(jù)樣本進行模型訓練,同時在訓練的過程中需要大量的計算資源,例如GPU、CPU等相應的硬件支持。

李兵表示“隨著AI技術的發(fā)展,AI換臉過程中是保持B人臉部基本特征情況下,將A臉的生物特征進行深度嵌入,視覺是完全沒有辦法視察出來的。人臉合成和人臉交換會帶來巨大的安全隱患,造成人身份信息的混亂及虛假信息的傳播,這是目前面臨的非常大的問題。”

該技術解決了依賴高清圖像才能識別的問題,但面部識別技術同樣會遇到一些問題,如通過一些服飾偽裝等手段,系統(tǒng)就無法正常完成人臉識別。如今智能技術與真實世界的融合效果更加自然,甚至出現(xiàn)了以假亂真的換臉技術,也就是將A人的臉換到B人的臉上,讓人難以分辨真假。

03

強化AI內(nèi)容安全技術研發(fā)

人民中科作為中國科學院自動化研究所技術成果轉(zhuǎn)化平臺,以先進的算法研發(fā)能力和算法優(yōu)化迭代能力為核心點,聚焦于內(nèi)容安全領域的產(chǎn)業(yè)應用及產(chǎn)品開發(fā),為內(nèi)容安全產(chǎn)業(yè)提供新方案,構建有責任、有價值的人工智能生態(tài)。

人民中科與中科院自動化所國家模式識別實驗室的研究團隊提出了一種基于身份空間約束的偽造人臉檢測新方法。

不久前,團隊從實際應用出發(fā),通過大量的科學觀察和實驗發(fā)現(xiàn),公眾人物或特定的人物在實際的人臉交換檢測任務中,他們的身份總是已知的,或者每個人至少有一個真實的面部圖像。既然卷積神經(jīng)網(wǎng)絡單憑待測圖像進行分類的泛化性能不佳,而參考人臉圖像又包含了相應身份人物的先驗信息,這些信息利用起來可為偽造人臉圖像鑒別模型提供重要判定依據(jù)。該思想對實際應用較為簡單、合理,有助于克服泛化問題。

“目前我們在安全領域做了關于對抗人臉交換,進行人臉鑒偽的AI技術工作,即對偽造人臉進行鑒別,從而保護公民的個人隱私。目前我們提出了在人的生物特征區(qū)域,在不同尺度上細分地找到對應的原始人臉和被交換人臉之間的不兼容點或偽造點,來判斷臉部圖像是否是偽造合成的。”

李兵認為

人民中科(濟南)智能技術有限公司是人民網(wǎng)與中科院自動化所聯(lián)合發(fā)起設立的“人工智能技術引擎”和科技成果轉(zhuǎn)化平臺,以內(nèi)容安全為初始應用場景,建設內(nèi)容智能理解核心能力,目標是成為全球內(nèi)容科技領導企業(yè)。