模拟逝者的伦理挑战:重新审视和探讨“数字逝者”机器人对社会的意义
2024年1月25日,远期人工智能研究中心、中国科学院自动化研究所人工智能伦理与治理研究中心、中国科学院哲学研究所联合研究团队在科技伦理领域重要影响力期刊Ethics and Information Technology上发表题为“在‘数字逝者’时代拥抱悲伤:一种临时的工具,而非永久的解决方案”(Embracing grief in the age of deathbots: a temporary tool, not a permanent solution)的研究。中国科学院自动化所研究员、兼中国科学院大学人文学院/中国科学院哲学所博士生导师、远期人工智能研究中心主任曾毅研究员领衔了这项研究。他们针对使用模仿已故个体的智能机器人(“数字逝者”机器人)在心理和情感上可能带来的风险进行了深入分析,提出在使用过程中应注意的伦理问题。
这项研究指出,基于当前人工智能技术发展的阶段,基于现代人工智能技术构建的“数字逝者”机器人应被视为在哀悼过程中的临时辅助工具,而非永久解决方案。为此,文章主要围绕“数字逝者”机器人的哀悼功能,对“数字逝者”机器人重新进行概念化表述。文章最后指出,“数字逝者”机器人应用的最终目的,应当是尊重自然的哀悼过程,避免形成对“数字逝者”机器人的不适当情感依赖。
论文简介
近年来,基于人工智能的“数字逝者”机器人(deathbots)技术受到广泛关注,包括“用AI工具生成我奶奶的虚拟数字人”,以及《流浪地球2》中的“丫丫”等,都是对“数字逝者”机器人的探索与讨论。“数字逝者”机器人主要是通过模拟已故亲人的方式,来帮助人们应对失去亲人的悲痛。
图片与视频源自bilibili网站up主“吴伍六”视频“用AI工具生成我奶奶的虚拟数字人”
然而,其应用引发了关于是否尊重死者,以及可能的商业利用等伦理争议。过往研究提出了不同解决方案,包括限制数字遗骸的使用、将“数字逝者”机器人视为医学治疗工具,以及在设计中引入限制,以减少对这些机器人的依赖等。这一领域的争论主要集中在如何平衡技术的潜在好处与可能的道德风险之间。
本文认为,尽管这些机器人有一定的交互能力,但它们提供的情感支持有限,且尚不具备真正的理解能力,目前更不是逝者生命的真正延续,不应成为主要的安慰来源:
基于“解释工具”论证说明了当代的“数字逝者”机器人无法完全复制个人身份多面性,无法捕捉人类社会互动的复杂性。
过度依赖“数字逝者”机器人可能会阻碍自然的悲伤过程,可能导致个人无法从人际关系中获得必要的支持和安慰。
“数字逝者”机器人的使用还引发了责任和潜在伤害的问题。例如,如果“数字逝者”机器人因技术故障或无法提供有意义的情感支持而导致二次伤害——用户可能第二次经历“丧亲”。
悲伤具有其独特的意义和价值,应通过更传统的人际关系和社会支持网络来处理,人工智能技术的辅助暂时非常有限并不应形成过分依赖。
因此,在考虑使用“数字逝者”机器人时,需要更深入地理解和解决它们对社会和个人情感健康的影响。
人工智能驱动的“数字逝者”机器人在丧亲之痛的背景下,揭示了技术与人类情感之间复杂的相互作用。尽管用户知道“数字逝者”机器人并非真正的逝者,但情感依赖可能加剧对逝者的依恋,延长哀悼期:
悲伤是一个复杂而摇摆不定的过程。随着时间的推移,人们学会在没有亲人的世界中生活。“数字逝者”机器人可能破坏这一过程,导致人们无法从持续的悲伤中解脱,陷入长期痛苦。
悲伤也会使人们更深刻地认识到死者在生活中的重要性,唤起人们的脆弱性。它揭示了人们与逝者之间被遗忘的关系,并使人们重新发现固有的脆弱性。
悲伤还凸显了编织丧亲实践的文化结构,以及社会规范和期望如何影响人们对技术如“数字逝者”机器人的接触。在面对死亡时,人们回到对脆弱的恐惧中,悲伤敦促重新定位自我。
悲伤也反映了人们对日常关系的重要情感投入。通过“数字逝者”机器人进行的想象中的对话可能淡化这种情感投入。
最后,哀悼者对逝者负有庄严的责任,这在不同的文化中体现为对亲人去世后的悲伤表达。在某些文化中,悲伤是对逝者的一种尊重形式,而使用“数字逝者”机器人可能会被视为规避这些文化责任。因此,悲伤是人们对逝者的道德责任的一部分,有助于人们发现自己的脆弱性,并保护人们的自尊。鉴于这些论点,文章试图重新考虑对“数字逝者”机器人的定位。
第一作者包傲日格乐指出:
“本文的核心观点是,将‘数字逝者’机器人视为向逝者致敬的新形式,而不是持续互动的新模式。类似于人作为戏剧场景参与者,参与到戏剧当中。因此,本文强调了‘数字逝者’机器人的有限使用,重塑‘数字逝者’机器人的使用方式,视其为悲伤过程中的短暂支持元素。这种方法尊重用户的自主权,并鼓励将‘数字逝者’机器人视为一种记忆感受的提供者,将其服务重新概念化为临时纪念方式,最终尝试解决不适当依赖‘数字逝者’机器人的问题。”
责任作者曾毅研究员指出:
“数字逝者”是一种纪念和缅怀方式,目前的“数字逝者”机器人本质上还是一个信息处理系统,没有真正的生命,也不具有真正的理解能力,更不是逝者真正意义的延申。人工智能与机器人的技术实践与应用需要将真实的发展情况呈现给公众,并主动帮助公众避免可能的误解。更进一步,面向未来可能的技术发展与应用,应该从社会伦理和人工智能伦理两个视角进一步与时俱进的深入探索,与技术和应用发展协同,探索“数字逝者”对于社会的意义。
更多信息请参考原文:
https://link.springer.com/article/10.1007/s10676-024-09744-y
作者简介:
包傲日格乐
中国科学院大学人文学院哲学系/中国科学院哲学研究所2021级科学技术哲学专业博士研究生,导师曾毅研究员。远期人工智能研究中心学者。主要研究方向为人工智能哲学与伦理。目前已在Ethics and Information Technology、Humanities and social sciences communications、哲学动态、自然辩证法研究等期刊发表论文多篇,其中一篇被《中国社会科学文摘》全文转载。
曾毅
中国科学院自动化研究所研究员、类脑认知智能研究组负责人、脑图谱与类脑智能实验室副主任、人工智能伦理与治理研究中心主任;中国科学院大学岗位教授、博士生导师;远期人工智能研究中心主任;中国人工智能学会心智计算专委会主任;国家新一代人工智能治理专委会委员;联合国人工智能高层顾问机构专家;联合国教科文组织人工智能伦理特设专家组专家。研究方向为:类脑人工智能、人工智能伦理、治理与可持续发展。被美国《时代周刊TIME》评为人工智能最具影响力100人。
是类脑认知智能引擎“智脉(BrainCog)”开源平台的负责人(http://brain-cog.network),在人工智能伦理方面,从事有道德的人工智能模型研发,主持了链接人工智能原则平台(www.linking-ai-principles.org)、人工智能治理公共服务平台(www.ai-governance.online)、面向可持续发展的人工智能智库(https://ai-for-sdgs.academy)的研发,是《人工智能北京共识》、《面向儿童的人工智能北京共识》、《和谐人工智能原则》、《面向生物多样性保护的人工智能原则》、《面向气候行动的人工智能原则》等伦理原则的责任起草者。代表性成果发表在PNAS、Cell Press旗下期刊Patterns、iScience,Nature出版社旗下Scientific Data、Scientific Reports、Humanities and social sciences communications,以及Science出版社旗下Science Advances、IEEE Transactions、Neural Networks以及人工智能领域重要国际会议NeurIPS、IJCAI和AAAI等。
研究中心
主页
https://www.ai-ethics-and-governance.institute/
中国科学院自动化研究所人工智能伦理与治理研究中心是从事人工智能伦理与治理,符合伦理道德的人工智能模型与应用、人工智能可持续发展与治理研究的智库与科技创新深度融合的综合性研究中心。中心作为代表性机构参与国内外人工智能伦理与治理原则、规范的形成与实施;开展人工智能内生安全、符合伦理道德的人工智能模型与应用研究;对人工智能伦理、治理与可持续发展的近期与长远科学挑战开展前瞻研究。
中心长期参与国家有关部委、国际组织的人工智能伦理与治理相关研究工作,参与编写《国家新一代人工智能治理原则》、《国家新一代人工智能伦理规范》、《联合国教科文组织(UNESCO)人工智能伦理问题建议书》、《世界卫生组织(WHO)健康领域人工智能伦理指南》。研制并发布了“链接人工智能准则平台”、“人工智能治理公共服务平台”、“面向可持续发展的人工智能智库平台”等一系列人工智能可持续发展与伦理治理交叉研究与服务平台。
中心与国内外相关机构及各国学者、产业代表共同发起的面向可持续发展的人工智能协作网络(AI for SDGs Cooperation Network)是促进人工智能赋能实现可持续发展目标,以及人工智能的发展与治理深度融合创新的国际合作网络。
评论排行