纵观资讯 纵观资讯

当前位置: 首页 » 实时追踪 »

AI情感陪伴:满足人类需求还是制造“情感茧房”?

转自:上观新闻

当情感可以被算法模拟,当“真实”与“虚拟”的界限不再清晰,技术对人性需求的精准捕捉和分析理解,是否能真正满足人类的情感需求?

笔者邀请到复旦大学哲学学院教授徐英瑾、华东师范大学心理与认知科学学院副教授张亚、复旦大学社会发展与公共政策学院教授朱磊、复旦大学社会发展与公共政策学院讲师田芊四位专家,共同探讨AI情感陪伴的现状、争议与未来。

“情绪价值拉满”

上观新闻:从心理学角度看,当前的AI情感陪伴软件主要满足了人类的哪些情感需求?

张亚:首先是满足了被聆听和回应的需求。个体的自我是在被回应的过程中孵化的,也是在被聆听中孕育的,这是我们人类基本的情感需求。此外,AI陪伴可以做到24小时在线,尊重用户感受且不作评判,可以说是“情绪价值拉满”。

华东师范大学心理与认知科学学院副教授张亚

田芊:从马斯洛需求层次理论来看,AI情感陪伴能部分满足人类个体对尊重、爱与归属的需求,这是它比较积极的一面。而且AI有个特点,就是不会拒绝,这有时确实能给个体带来安全感,增强个体的自我价值感。

复旦大学社会发展与公共政策学院讲师田芊

上观新闻:一些用户反馈,AI似乎比人更能捕捉到自己的情感需求,更能与人“共情”。它是怎么做到的?

张亚:我们研究小组比较了大语言模型和人类咨询师的共情准确性,结果发现,大语言模型对负面情绪的共情准确性甚至比专业咨询师更好。虽然这是个小样本研究,使用的是标准化的共情任务,和咨询室里遇到的真实复杂的情感案例并不同,但依然是一个很重要的提示:无论是通过文字还是语音,大语言模型都可以利用算法精妙地识别、“理解”人类的情感。

我们的研究人员还曾问大语言模型:你是怎么识别到的?它说,它注意到对方的声音在哪一点上波动,或者在某一处描述中使用了某个情感词。AI的敏感度确实比很多人类更好。

上观新闻:“善解人意”的AI能在多大程度上替代真实世界的人际交往?

田芊:AI情感陪伴能在一定程度上满足情感需求,虽然不能触达深层次满足,但可以满足浅层次需求。所以,关于其能否取代人际交往这个问题,我认为短期替代是可行的。

AI的作用更多体现在功能性陪伴上。比如在行为训练中,有社交恐惧症的人可以通过和AI模拟对话进行脱敏训练;老年人需要找人说话时,也可以短期用AI替代。但它在共情复杂情绪上存在不足,长期替代的话会削弱人际交往能力,所以AI情感陪伴的应用要视具体情景而定。我个人对它持比较中立且偏积极的态度。

张亚:但我必须强调,拥抱等真实的身体接触对人类来说尤其重要,这是AI没办法替代的。

心理学中有个著名的恒河猴实验。心理学家哈洛为每只幼猴提供了两种“母亲”模型,实验表明,当幼猴遇到陌生的刺激(如突然出现威胁性物体)时,它们会选择躲到布质、没有奶瓶的“母猴”怀抱里来寻求安全感,而非有奶瓶的金属“母猴”。这说明,肉身的怀抱可能比我们以为的更重要。

孤独经济的一种

上观新闻:“AI情感陪伴”体现出的人机交流,和传统社会中的人际交流有哪些区别?

徐英瑾:传统社会关系中,人与人的交流过程中能产生现实的互助,比如,在社交过程中可以交换彼此的信息、资源。而AI毕竟只是人类思想的平均化机器,提供的意见缺乏针对性,且仅能提供意见,无法将其直接转化为实际行动,后者仍然需要现实中的人来实现。

复旦大学哲学学院教授徐英瑾

张亚:人际交往中最让人成长、也最能带来痛苦的就是其不可预测性和差异性。在和不同的人交往碰撞的过程中,因为无法预测这段关系的走向,所以每个当下都是独一无二的,这是人际交往的迷人之处。而AI情感陪伴可以设定虚拟人设,它怎么回应你是由你来决定的,这消解了人际交往中可能最有意义的部分,塑造了一个“情感茧房”。

田芊:AI的情感陪伴首先是单向的情感投射。用户把情感寄托在AI上,AI承载了人的情感,但它无法产生自主情感,本质上是算法驱动的镜像回应,没有两个个体之间实打实的双向情感投射,这是它与传统人际交往的第一个核心区别。

第二个区别是它没有风险。用户可以随时暂停、重启对话,不用承担冲突和责任。这种零风险社交如果带入现实生活,反而会有风险,因为人们可能会认为人与人之间的社交也是如此,从而无法面对真实的冲突。

上观新闻:当下,越来越多的年轻人开始使用“AI情感陪伴”软件,是否也折射了当代人的某种普遍心态?

张亚:需要陪伴、需要连肉身都没有的AI提供陪伴,通常意味着孤独。不过,孤独感一直是人类永恒的主题,它并不是坏事,甚至是人类存在的真相。据说,缪斯女神只眷顾孤独的人。

至于这个时代的人是否比其他时代的人更孤独,我觉得是有可能的。人类是群居的动物,但在过去40多年经济飞速发展的过程中,大规模的人口迁徙和回不去的家乡,已成为较为普遍的社会现象。再加上大城市高效的工作节奏、快速流动的工作关系,个体的情感需求、联结需求都被压抑了——这里说的“联结”,是有深度的联结,而不是一起吃饭喝酒讲八卦的关系。

田芊:如今,城市化进程加快,人与人之间关系的紧密度降低,孤独经济兴起。和宠物经济一样,AI陪伴也是孤独经济的一种。它就像即时情感止痛药,能满足人们孤独时需要陪伴的需求。

现代社会节奏快,效率至上。对不少年轻人来说,面对面的社交会消耗心力和情绪,而AI陪伴这种低消耗的社交方式,不用维护关系,在很大程度上迎合了现代社会的需求。AI陪伴既迎合了当下的孤独心态,同时也加剧了这种情况。

危险的“情感茧房”

上观新闻:对用户来说,如果长期使用“AI情感陪伴”,可能存在哪些风险?

田芊:可能会导致自我认知偏差。如果过度依赖AI的认同反馈,可能会引发现实中的自我评价失调,产生“只有AI懂我”的认知偏差。

长期的情感依赖也可能强化某些依恋模式。比如,对于害怕被伤害、在情感上习惯与他人保持距离的回避型依恋人格来说,AI永不拒绝的特性会强化其回避型依恋模式,导致其在真实关系中耐受度降低。

张亚:长期或过度的AI情感陪伴会造成“情感茧房”,让用户始终停留在心理舒适区。而即便是擅长提供情绪价值的心理咨询师,也会和对方讨论想要改变的目标,引发洞察,促使行动。

AI情感陪伴可能会营造出一个情绪价值过满的“乌托邦”——从个体成长的角度来说,如果只提供情绪价值,很可能是在培养“巨婴”。

徐英瑾:我们要重视人的情绪价值,也要重视认知价值。只强调情绪价值而不讨论认知价值是一件很危险的事。现在的一些人真的很缺爱,在遭受打击时,可以从情感陪伴类AI那里获得情感宣泄,尤其是异性语音陪伴,对缓解情绪有帮助。但使用时一定要把握分寸,不能只重视情绪价值,还应重视认知价值。否则,AI情感陪伴可能成为精神鸦片。

整体而言,人的精力是有限的,如果在虚拟世界投入过多,就会减少在真实人际交往中的投入,逐渐变成没有社会支撑的人。其结果是,当遇到困难时难以从真实关系中获得实际帮助。

上观新闻:与AI情感陪伴软件的“亲密接触”,会给人与人之间的亲密关系带来怎样的冲击?

张亚:实际上,即便没有AI情感陪伴,人与人之间的亲密关系也正在发生巨变。

现在,年轻人更倾向饭搭子、牌搭子、旅游搭子这种“轻关系”。从积极的角度来说,年轻人对亲密关系的品质要求更高了。以后愿意进入长久亲密关系的必然是少数人。而一旦决定进入,则大概率会是一段高品质的亲密关系,这个“品质”指的是彼此的了解、支持、依恋和精神层面的共鸣等。

AI情感陪伴会不会促使人们对于亲密关系品质的要求更高?我觉得已经在发生了。有不少年轻人向我吐槽,和人聊天还不如和AI聊天。确实,现在好多人提供的陪伴真的比不上AI。在人与人的互动中,的确有很多鸡同鸭讲、单向输出的情况,AI情感陪伴至少做到了尊重感受,不评判、不定论。

AI情感陪伴的出现,一方面提升了人们对于亲密关系品质的要求,一方面也会促使我们学会尊重、理解,学会聆听别人,而不是急着给出自己的建议和判断。从积极的意义上说,AI可能会倒逼我们成为更好的人。

上观新闻:从另一角度来看,AI是否会取代人,成为亲密关系中的一方?

田芊:冲击可能体现在去责任化方面。举个例子,如果和AI交往、谈恋爱久了,那种没有负担的亲密感,可能会泛化到真正的亲密关系中。

对于婚恋关系和家庭结构而言,目前来看还停留在科幻层面,现在的机器人还不够仿真。但在可预见的未来,如果AI技术足够先进,机器人足够逼真,不排除有人会选择和机器伴侣共度一生的可能性,这也是科技发展可能带来的隐忧。

错误的AI人格化

上观新闻:在价值观层面,AI情感陪伴又会存在哪些伦理风险?

朱磊:最近,我给豆包等软件出题,让它们写一篇作文,题目是《原来早有伏笔》。有的写出来的内容思想不太健康,有的AI软件表现相对较好。

这可能与它们采用的模型结构有关,有的采用的是强化学习(RL)推理模式,有的是基于Transformer模型的结构。Transformer模型中同一层的单元之间是相互联系的,这种结构特点使其在语言生成和内容把控上有一定的优势;而强化学习(RL)模型没有这种单元间的联系,在某些时候可能就会出现问题。

复旦大学社会发展与公共政策学院教授朱磊

田芊:AI可能会因为其算法产生“欺骗”或者幻觉。AI生成的内容可能会传播一些扭曲的价值观。网络上的极端观点,比如性别刻板印象、躺平摆烂等,都有可能被AI生成并传播。

另外,AI情感陪伴还有成瘾风险。现在已出现人与AI谈恋爱、分手后自杀的相关报道。AI和游戏类似,能提供即时快感反馈,在一定程度上与成瘾机制相吻合。对于青少年来说,他们大脑的前额叶还未成熟,更容易成瘾。所以该风险也需要我们警惕。

上观新闻:AI情感陪伴的消费市场正在崛起,有哪些方面是需要我们持续关注的?

徐英瑾:现在的一些应用开发倾向于将AI人格化,这是错误的趋向。即使未来AI具身化,但它终究不是一个生命体,没有生命体之间的情感羁绊。一个AI应用最终是要让用户在现实生活中更成功、更有幸福感。

因此我认为,一方面,应用开发不应过度迎合用户的依附性人格,而应注重培养用户的主体性,避免用户过度依赖,丧失独立思考和判断的能力。另一方面,要防止AI成为社会极化的工具,在处理情感问题时应提供客观分析,避免引发性别对立、地域歧视等不良现象。

简单来说,AI情感陪伴产品应该有脑有心,理智与情感两手都要硬。

张亚:我注意到,一些AI情感陪伴软件会提供一些软色情服务,对此我非常不赞成。在涉及未成年人的生命风险以及最基本的人伦底线方面,AI情感陪伴都应该加强监管。

AI情感陪伴类软件不应该鼓励用户充更多的钱、打更长时间的电话,不应该导向软色情服务,而是应该更主动地在情感支持之外提供一些有用的、现实生活中的建议,不要鼓励用户花更多的时间沉浸在AI情感陪伴中。

上观新闻:怎样引导AI情感陪伴与人类社会良性共存?

徐英瑾:社会应引导人们将AI视为情感陪伴和谋士的结合体,它既是朋友,能提供情感支持;又是秘书,有责任提供客观建议。在描述AI的角色时,应使用更全面的话术,避免只强调情感方面,而忽视认知价值。

田芊:政府可以制定相关伦理法规,比如数据伦理法。对于AI情感陪伴产品,可以像广告标注那样,进行实时提醒,标明其并非真实人类。科研机构可以开展长期追踪项目,研究AI对社会心理健康的动态影响,建立风险评估模型。企业要承担起社会责任,在设计AI产品时,应避免利用人们情感上的弱点设置过多成瘾机制。

张亚:我比较确定的是,我们应该持续讨论这一新生事物,带领孩子们一起来讨论它。引导学生讨论AI陪伴的使用体验、利弊和风险,核心就是培养个体的批判性思维和独立思考能力,这是跨越不同代际、生而为人的最重要之处。

AI是爱的桥梁,而非终点

上观新闻:从技术角度看,AI真的能理解人类的情感并产生共情吗?

朱磊:理解他人感受、行为和想法的能力,分为两个层面:一个是认知层面的观点采择,即站在对方的角度,思考问题;另一个是情绪情感层面的共情(empathy),即站在对方的角度,理解对方的情绪情感。

但目前市面上的通用大模型,最多只涉及低阶的观点采择能力,尚未出现共情方面的发表数据。看似真情实感的效果实则是大模型计算习得的进步成果,更多情况下它只能满足浅层次的情感需求和发挥功能性陪伴的作用,尚且难以实现复杂情感的深度共鸣。

上观新闻:AI最终能够成为人类所需的“爱”吗?

徐英瑾:AI不能成为人类所需的“爱”,它只能成为爱的某种媒介,是爱的桥梁。如果AI宣扬的价值观是正向的,能让人通过AI的教育更好地去爱人类,那么它在爱里是有作用的。但如果把AI本身视为爱的对象,就如同把红娘和崔莺莺当成一回事,这是错误的。人们可以对AI这个工具产生感情,但应清楚它与家人等真实情感对象的重要性差异,在面对选择时,应明确真实情感关系的优先级。

田芊:就我目前的认知而言,现阶段是不能的。爱是人类个体之间独有的情感,哪怕是动物之间都没有这样复杂的情感。爱包含复杂的情绪情感,是双向的情感投射,不仅有双向互动,还包括共担风险、共同成长等多个维度。AI可以模拟部分被爱的体验,但无法真正给予爱。爱的维度太多,激情、陪伴等都不能完全定义爱,所以AI无法真正替代爱。

张亚:我们常把太多东西冠之以“爱”。但至少对我来说,爱总是和放弃自我的某些部分、和利他有关。在AI这里,我还没有看到。

有深度的关系一定是爱恨交织的,而且有勇气去面对爱恨交织。发现彼此的不同,沟通彼此的需要,我知道你的缺点,你了解我的软肋,最后求同存异,关系才会变得更有深度。也正是在这样的人际交往中,我们才能不断拓展自己的边界。

AI情感陪伴的情感反应是基于算法的,它有没有可能发展出更高级的智能,是否会产生真实的情感反应,我无法下定论。但即使算法模拟了肉身的情绪,它依然不是真实的感受。

采访手记

当AI逐渐成为情感生活的“新伴侣”,我们既需肯定其缓解孤独、提供即时支持的价值,也须清醒认知这种情绪价值背后的技术逻辑和工具本质。这种停留于浅层次的“情感止痛”,可能会让我们在无意间错过了无法预测的人际交往的魅力,丧失了真实的“深度联结”。

AI是爱的桥梁,而非终点。唯有在人性与技术的平衡中,我们才能避免在AI时代沦为“情感茧房”中的孤独者与沉溺者,成为保持主体性与批判思维的独立个体。

原标题:《AI能成为人类需要的“爱”吗》

栏目主编:龚丹韵 文字编辑:曹静 题图来源:上观题图

来源:作者:解放日报 实习生 梅桂 朱玲珑

未经允许不得转载: 纵观资讯 » AI情感陪伴:满足人类需求还是制造“情感茧房”?