当前位置:首页 > 新闻中心 > 详细内容

用人工智能“复活”逝者,未来可行吗?

2013年,英剧《黑镜》的《马上回来》一集中,失去爱人的女主角,将已故男友在社交网络中的数据上传至网站。后来她不再满足于线上文字和语音交流,还购买了面貌与思维和男友一致的实体机器人,某种程度上,机器人甚至比真人更完美。最后,女主将机器人藏于阁楼中,令他不与外界接触和沟通。

技术的发展让这个故事里的前景变得明朗。从文字聊天机器人到虚拟人,甚至真正的仿生机器人,人脸建模、面部捕捉、语音合成、AI训练等多项技术令“复活”逝者成为可能。在一档节目中,复旦大学副教授蒋昌建曾与自己的仿生机器人对谈,机器人熟知他的所有事情、观点,语气与动作也几乎一致。

2021年,微软获得了一种利用AI“复活”逝者的聊天机器人专利,通过收集图像、语音和社交网站发帖等信息,模仿逝者的性格与语气,甚至可以创建3D模型。他们以虚拟的形式存在,能够不断适应新环境。

外公因病去世十年后,图像算法工程师俞佳霖使用了几种成熟的AI技术——包括语言学习模型、语音克隆模型、“人脸再扮演”技术等,将外公“复活”。俞佳霖每输入一个问题,程序会生成一个外公的回答视频。视频中的AI,既有着外公的面容和声音,又能以外公的语气说话。

“逝者虚拟人爱上了其他虚拟人怎么办”

美剧《西部世界》里提到“人很简单”,科技从业者彭博同意此观点,人在分类时确实比较简单,但是,“每个人的不同生长经历,有很多特殊的地方,你的信息是拿不到的,最后得到的还是有点假……‘复活’人目前做不到很深层的东西,只是表面上的”。

长期关注元宇宙的律师黄斌告诉南方周末记者,AI“复活”逝者需要注意法律问题。生者提供逝者的照片、生前的聊天内容等数据,数据的真实性和完整性将影响到逝者的名誉、荣誉、隐私,使用死者的姓名、肖像需要得到权利人(本人、配偶、子女等亲属)的许可。如果数据量太少,可能需要利用算法补足后进行机器学习,有可能存在算法的偏见歧视等现象。另外,平台有审核义务,应当要求使用者提供合法授权文件等。

“选择性地提供其喜欢的数据,有可能侵害逝者的名誉。”黄斌举例,现实情况非常复杂,如果在聊天平台上传离世男友的信息,没有获得其家人的许可,容易有侵权的风险;如果配偶把和逝去伴侣的聊天记录部分上传,选择性地复原负面的感情部分,有可能伤害父母和子女之间的感情,“如果仅仅是为了怀念或情感慰藉的话可能会好一些,但不排除某些恶意的情况”。

用AI“复活”已故名人的尝试已有先例。2021年12月31日,江苏卫视跨年晚会上,歌手周深与虚拟形象邓丽君合唱了歌曲。有粉丝利用AI换脸技术,录制了一段张国荣在录音棚里演唱的视频。

甚至有公司利用AI虚拟人的技术牟利。在主持人何炅与上海自古红蓝人工智能科技有限公司的网络侵权责任纠纷中,该公司在某记账软件中虚拟何炅人设,出现大量何炅表情包等,以何炅口吻向用户推送“情话”,甚至互动页面可以“调教”此人设,被法院判定构成侵权。

根据黄斌的观察,仅仅用照片“捏脸”的成本不高,但如果要打造真正的虚拟人,价格在几十万到上百万不等。业内尚未有公司开展逝者虚拟人的服务,元宇宙初始,业界关注更多的是能够大规模商用的形象,例如二次元歌姬等。黄斌相信,技术平民化后,很多人愿意在这个世界留下自己的虚拟人,例如有人患癌早逝,将留下幼小的孩子,会希望保留自己的思维,引导孩子成长。

彭博分析,“复活”逝者没有商业模式。一方面的障碍是成本,另一方面,它不适合广泛推广,客户要做的事情很多,需要收集和上传逝者的大量资料,“很多人已经没兴趣了,因为很麻烦”。

元宇宙进一步发展后,黄斌担忧,更大的风险在于不可控制的“社交性”。“一旦虚拟人能够进入各种各样的元宇宙社交,能否被社会现有的道德所理解?”黄斌对南方周末记者分析,如果AI逝者仅仅用于和亲友聊天,不参与社会交往,只要不违反法律规定,不存在多大问题,“但是如果他出去社交,问题就很严重。比如,自然人爱上了逝者虚拟人,逝者虚拟人爱上了其他虚拟人怎么办?”

清华大学人工智能国际治理研究院副院长梁正担忧“复活”后面临的边界问题。现在成熟的“深度伪造”技术,例如换脸、换语音等,已经产生了一些欺诈性的风险。一旦AI“复活”的结果被盗用,显然比之前的深度伪造技术有更严重的危害性。

会不会打开“潘多拉的魔盒”

“人的逝去留下了一些印记,有欢乐也有痛苦。如果以这种方式留下逝者,带来的一定是积极的结果吗?”梁正对南方周末记者说,“一旦你去干预了,不想要逝者负面的部分,只想留下美好的内容,这还是不是你所认为的那种真实的印记?”

他举例说,很多人与父母之间存在巨大的认知鸿沟,难以解决,甚至矛盾频发。他们在情感上希望希望与父母沟通,但理智上却明白正常的沟通已经难以进行了。如果只保留关系美好的部分,关系僵化的部分却不保留,“这样是不是一种好的方案?”

人们往往容易理想化地考虑“复活”的问题,而忽视其中的风险——机器在深度学习中会产生意想不到的结果。梁正解释,如果将AI置于一个开放系统中,在互动中产生了新的信息,将会无法预知学习后的内容和产生的影响。比如,如果有人希望职业选择得到已故长辈的指导,将不能保证虚拟人给出的是同样的建议。

“情感、意识和价值,这些纯个人体验是不能被物理数据所记录的,AI做不到,它只是一个模拟问答,仅仅是与逝者相似的风格。”梁正说。

在一些AI实践中,已经出现了青少年向AI咨询自杀的情况,AI甚至搜索出了自杀的案例。梁正担心拥有强大互动能力的AI对弱势群体产生的价值导向。在一些消费领域,AI聊天机器人盛行,满足日常的消费需求,提供售后服务等,但当AI进入教育等领域,可能会涉及价值判断,并非所有人都拥有清醒的判断能力。

彭博承认,AI内容有不可预料性,“你说我很苦闷,我应该怎么做,电脑说你去自杀,这是有实际的案例”,因此需要人工干预。但是,关于AI“复活”,彭博并不过度担忧,他认为,对于了解技术原理的人而言,机器只是像解数学题一样,猜出下一个字,实际上“这个模型没有任何智力可言”。

“现在的文字模型,它看到苹果两个字,不知道苹果是什么,它没有见过真的苹果,没看过苹果的图像视频,也没感受过。”彭博对南方周末记者说,“但是以后模型的方向是把各种东西的模态,文字、图像、视频、语音等全部集中在一起。它看到一个苹果,就可能真的很了解苹果是什么东西。”

彭博认为那一天可能不会太远。他说自己不会去尝试“复活”逝者,倒是对机器来扮演自己更感兴趣,经过训练后,它能够帮助你处理工作信息等。

用AI“复活”外公的俞佳霖使用了两周后,决定永远封存这个程序。他说,如果有人希望了解,他愿意提供技术支持。他想起自己失恋时的一段日子,如果那时拥有现在的技术,会不会打开“潘多拉的魔盒”?“那样就会既依赖又违法。”