【ZiDongHua 之人文化天下收錄關(guān)鍵詞: 人工智能  機器人  可持續(xù)發(fā)展  深度融合】
  
  模擬逝者的倫理挑戰(zhàn):重新審視和探討“數(shù)字逝者”機器人對社會的意義
  
  2024年1月25日,遠期人工智能研究中心、中國科學(xué)院自動化研究所人工智能倫理與治理研究中心、中國科學(xué)院哲學(xué)研究所聯(lián)合研究團隊在科技倫理領(lǐng)域重要影響力期刊Ethics and Information Technology上發(fā)表題為“在‘數(shù)字逝者’時代擁抱悲傷:一種臨時的工具,而非永久的解決方案”(Embracing grief in the age of deathbots: a temporary tool, not a permanent solution)的研究。中國科學(xué)院自動化所研究員、兼中國科學(xué)院大學(xué)人文學(xué)院/中國科學(xué)院哲學(xué)所博士生導(dǎo)師、遠期人工智能研究中心主任曾毅研究員領(lǐng)銜了這項研究。他們針對使用模仿已故個體的智能機器人(“數(shù)字逝者”機器人)在心理和情感上可能帶來的風險進行了深入分析,提出在使用過程中應(yīng)注意的倫理問題。
  
  這項研究指出,基于當前人工智能技術(shù)發(fā)展的階段,基于現(xiàn)代人工智能技術(shù)構(gòu)建的“數(shù)字逝者”機器人應(yīng)被視為在哀悼過程中的臨時輔助工具,而非永久解決方案。為此,文章主要圍繞“數(shù)字逝者”機器人的哀悼功能,對“數(shù)字逝者”機器人重新進行概念化表述。文章最后指出,“數(shù)字逝者”機器人應(yīng)用的最終目的,應(yīng)當是尊重自然的哀悼過程,避免形成對“數(shù)字逝者”機器人的不適當情感依賴。
  
  
  
  論文簡介
  
  近年來,基于人工智能的“數(shù)字逝者”機器人(deathbots)技術(shù)受到廣泛關(guān)注,包括“用AI工具生成我奶奶的虛擬數(shù)字人”,以及《流浪地球2》中的“丫丫”等,都是對“數(shù)字逝者”機器人的探索與討論。“數(shù)字逝者”機器人主要是通過模擬已故親人的方式,來幫助人們應(yīng)對失去親人的悲痛。
 
  
  圖片與視頻源自bilibili網(wǎng)站up主“吳伍六”視頻“用AI工具生成我奶奶的虛擬數(shù)字人”
  
  然而,其應(yīng)用引發(fā)了關(guān)于是否尊重死者,以及可能的商業(yè)利用等倫理爭議。過往研究提出了不同解決方案,包括限制數(shù)字遺骸的使用、將“數(shù)字逝者”機器人視為醫(yī)學(xué)治療工具,以及在設(shè)計中引入限制,以減少對這些機器人的依賴等。這一領(lǐng)域的爭論主要集中在如何平衡技術(shù)的潛在好處與可能的道德風險之間。
  
  本文認為,盡管這些機器人有一定的交互能力,但它們提供的情感支持有限,且尚不具備真正的理解能力,目前更不是逝者生命的真正延續(xù),不應(yīng)成為主要的安慰來源:
  
  基于“解釋工具”論證說明了當代的“數(shù)字逝者”機器人無法完全復(fù)制個人身份多面性,無法捕捉人類社會互動的復(fù)雜性。
  
  過度依賴“數(shù)字逝者”機器人可能會阻礙自然的悲傷過程,可能導(dǎo)致個人無法從人際關(guān)系中獲得必要的支持和安慰。
  
  “數(shù)字逝者”機器人的使用還引發(fā)了責任和潛在傷害的問題。例如,如果“數(shù)字逝者”機器人因技術(shù)故障或無法提供有意義的情感支持而導(dǎo)致二次傷害——用戶可能第二次經(jīng)歷“喪親”。
  
  悲傷具有其獨特的意義和價值,應(yīng)通過更傳統(tǒng)的人際關(guān)系和社會支持網(wǎng)絡(luò)來處理,人工智能技術(shù)的輔助暫時非常有限并不應(yīng)形成過分依賴。
  
  因此,在考慮使用“數(shù)字逝者”機器人時,需要更深入地理解和解決它們對社會和個人情感健康的影響。
  
  人工智能驅(qū)動的“數(shù)字逝者”機器人在喪親之痛的背景下,揭示了技術(shù)與人類情感之間復(fù)雜的相互作用。盡管用戶知道“數(shù)字逝者”機器人并非真正的逝者,但情感依賴可能加劇對逝者的依戀,延長哀悼期:
  
  悲傷是一個復(fù)雜而搖擺不定的過程。隨著時間的推移,人們學(xué)會在沒有親人的世界中生活。“數(shù)字逝者”機器人可能破壞這一過程,導(dǎo)致人們無法從持續(xù)的悲傷中解脫,陷入長期痛苦。
  
  悲傷也會使人們更深刻地認識到死者在生活中的重要性,喚起人們的脆弱性。它揭示了人們與逝者之間被遺忘的關(guān)系,并使人們重新發(fā)現(xiàn)固有的脆弱性。
  
  悲傷還凸顯了編織喪親實踐的文化結(jié)構(gòu),以及社會規(guī)范和期望如何影響人們對技術(shù)如“數(shù)字逝者”機器人的接觸。在面對死亡時,人們回到對脆弱的恐懼中,悲傷敦促重新定位自我。
  
  悲傷也反映了人們對日常關(guān)系的重要情感投入。通過“數(shù)字逝者”機器人進行的想象中的對話可能淡化這種情感投入。
  
  最后,哀悼者對逝者負有莊嚴的責任,這在不同的文化中體現(xiàn)為對親人去世后的悲傷表達。在某些文化中,悲傷是對逝者的一種尊重形式,而使用“數(shù)字逝者”機器人可能會被視為規(guī)避這些文化責任。因此,悲傷是人們對逝者的道德責任的一部分,有助于人們發(fā)現(xiàn)自己的脆弱性,并保護人們的自尊。鑒于這些論點,文章試圖重新考慮對“數(shù)字逝者”機器人的定位。
  
  第一作者包傲日格樂指出:
  
  “本文的核心觀點是,將‘數(shù)字逝者’機器人視為向逝者致敬的新形式,而不是持續(xù)互動的新模式。類似于人作為戲劇場景參與者,參與到戲劇當中。因此,本文強調(diào)了‘數(shù)字逝者’機器人的有限使用,重塑‘數(shù)字逝者’機器人的使用方式,視其為悲傷過程中的短暫支持元素。這種方法尊重用戶的自主權(quán),并鼓勵將‘數(shù)字逝者’機器人視為一種記憶感受的提供者,將其服務(wù)重新概念化為臨時紀念方式,最終嘗試解決不適當依賴‘數(shù)字逝者’機器人的問題。”
  
  責任作者曾毅研究員指出:
  
  “數(shù)字逝者”是一種紀念和緬懷方式,目前的“數(shù)字逝者”機器人本質(zhì)上還是一個信息處理系統(tǒng),沒有真正的生命,也不具有真正的理解能力,更不是逝者真正意義的延申。人工智能與機器人的技術(shù)實踐與應(yīng)用需要將真實的發(fā)展情況呈現(xiàn)給公眾,并主動幫助公眾避免可能的誤解。更進一步,面向未來可能的技術(shù)發(fā)展與應(yīng)用,應(yīng)該從社會倫理和人工智能倫理兩個視角進一步與時俱進的深入探索,與技術(shù)和應(yīng)用發(fā)展協(xié)同,探索“數(shù)字逝者”對于社會的意義。
  
  更多信息請參考原文:
  
  https://link.springer.com/article/10.1007/s10676-024-09744-y
  
  作者簡介:
  
 
  
  包傲日格樂
  
  中國科學(xué)院大學(xué)人文學(xué)院哲學(xué)系/中國科學(xué)院哲學(xué)研究所2021級科學(xué)技術(shù)哲學(xué)專業(yè)博士研究生,導(dǎo)師曾毅研究員。遠期人工智能研究中心學(xué)者。主要研究方向為人工智能哲學(xué)與倫理。目前已在Ethics and Information Technology、Humanities and social sciences communications、哲學(xué)動態(tài)、自然辯證法研究等期刊發(fā)表論文多篇,其中一篇被《中國社會科學(xué)文摘》全文轉(zhuǎn)載。
  
 
  
  曾毅
  
  中國科學(xué)院自動化研究所研究員、類腦認知智能研究組負責人、腦圖譜與類腦智能實驗室副主任、人工智能倫理與治理研究中心主任;中國科學(xué)院大學(xué)崗位教授、博士生導(dǎo)師;遠期人工智能研究中心主任;中國人工智能學(xué)會心智計算專委會主任;國家新一代人工智能治理專委會委員;聯(lián)合國人工智能高層顧問機構(gòu)專家;聯(lián)合國教科文組織人工智能倫理特設(shè)專家組專家。研究方向為:類腦人工智能、人工智能倫理、治理與可持續(xù)發(fā)展。被美國《時代周刊TIME》評為人工智能最具影響力100人。
  
  是類腦認知智能引擎“智脈(BrainCog)”開源平臺的負責人(http://brain-cog.network),在人工智能倫理方面,從事有道德的人工智能模型研發(fā),主持了鏈接人工智能原則平臺(www.linking-ai-principles.org)、人工智能治理公共服務(wù)平臺(www.ai-governance.online)、面向可持續(xù)發(fā)展的人工智能智庫(https://ai-for-sdgs.academy)的研發(fā),是《人工智能北京共識》、《面向兒童的人工智能北京共識》、《和諧人工智能原則》、《面向生物多樣性保護的人工智能原則》、《面向氣候行動的人工智能原則》等倫理原則的責任起草者。代表性成果發(fā)表在PNAS、Cell Press旗下期刊Patterns、iScience,Nature出版社旗下Scientific Data、Scientific Reports、Humanities and social sciences communications,以及Science出版社旗下Science Advances、IEEE Transactions、Neural Networks以及人工智能領(lǐng)域重要國際會議NeurIPS、IJCAI和AAAI等。
  
  研究中心
  
  主頁
  
  https://www.ai-ethics-and-governance.institute/
  
  中國科學(xué)院自動化研究所人工智能倫理與治理研究中心是從事人工智能倫理與治理,符合倫理道德的人工智能模型與應(yīng)用、人工智能可持續(xù)發(fā)展與治理研究的智庫與科技創(chuàng)新深度融合的綜合性研究中心。中心作為代表性機構(gòu)參與國內(nèi)外人工智能倫理與治理原則、規(guī)范的形成與實施;開展人工智能內(nèi)生安全、符合倫理道德的人工智能模型與應(yīng)用研究;對人工智能倫理、治理與可持續(xù)發(fā)展的近期與長遠科學(xué)挑戰(zhàn)開展前瞻研究。
  
  中心長期參與國家有關(guān)部委、國際組織的人工智能倫理與治理相關(guān)研究工作,參與編寫《國家新一代人工智能治理原則》、《國家新一代人工智能倫理規(guī)范》、《聯(lián)合國教科文組織(UNESCO)人工智能倫理問題建議書》、《世界衛(wèi)生組織(WHO)健康領(lǐng)域人工智能倫理指南》。研制并發(fā)布了“鏈接人工智能準則平臺”、“人工智能治理公共服務(wù)平臺”、“面向可持續(xù)發(fā)展的人工智能智庫平臺”等一系列人工智能可持續(xù)發(fā)展與倫理治理交叉研究與服務(wù)平臺。
  
  中心與國內(nèi)外相關(guān)機構(gòu)及各國學(xué)者、產(chǎn)業(yè)代表共同發(fā)起的面向可持續(xù)發(fā)展的人工智能協(xié)作網(wǎng)絡(luò)(AI for SDGs Cooperation Network)是促進人工智能賦能實現(xiàn)可持續(xù)發(fā)展目標,以及人工智能的發(fā)展與治理深度融合創(chuàng)新的國際合作網(wǎng)絡(luò)。