生活 >  > 正文

AI陪伴如何更具情绪价值?最新研究称冒充人类会让聊天更走心

2025-07-01 17:26:11  

5034
施普林格·自然旗下专业学术期刊《自然-人类行为》北京时间6月30日夜间在线发表一篇心理学论文指出,人类倾向于拒绝来自人工智能(AI)对话机器人的情绪支持,除非这种同理心被误标记为来自人类。通俗而言,就是将AI回复标记为人类回复能增强同理心,AI冒充人类会让聊天更走心。

AI同理心艺术示意图(图片作者Noam Kohavi)。施普林格·自然 供图

该论文介绍,生成式AI对话机器人,尤其是使用大语言模型(LLM)的对话机器人,自广泛面向公众以来,受欢迎度日益上升,它们可以带来社交互动的机会并给予情绪价值支持。此前研究显示,大语言模型驱动的工具能确定个人的情绪状态,而且它们的回应也被看作具有同理心和共情能力。不过,之前并不清楚来自对话机器人的支持是否会和来自人类的支持具有相同效果。

论文共同通讯作者、以色列希伯来大学Matan Rubin、Anat Perry和合作者通过研究发现,相比被认为来自人类的支持,AI生成的支持会被视为更缺乏同理心,除非那些AI生成的回复被标记为来自人类。

论文作者这次共开展了9项研究,给总计6282名受试者看了AI生成的回复,并告知他们有些回复是人类写的、有的是AI对话机器人写的。研究人员观察到,虽然受试者评价他们收到的回复富有同理心,但对他们以为交流对象是人类的回复评价更高。相比来自AI的即时回应,他们更愿意等待更久他们以为来自人类的回复。

AI同理心艺术示意图(图片作者Noam Kohavi)。施普林格·自然 供图

论文作者还发现,相比标记为AI生成的回复,受试者以为的来自人类的回复能唤起更多的正面感受(慰藉、认可、幸福、被理解)和更少的负面感受(感到焦虑、生气、痛苦或烦恼)。当受试者认为人类在构思回复时使用了AI协助,那他们对同理心、积极共鸣、正面情绪和支持的评分都更低。

论文作者总结说,这项研究结果表明,AI对话机器人能提供的支持可能存在局限性,尤其是在期待同理性或情绪支持时,人们可能更看重来自人类的回复。不过,由于本项研究中的交流很简短,今后应进一步研究AI工具在长期情绪支持交流中的使用和接受度。

关键词:
5034

相关阅读 换一换

最近更新

推荐图片

AI陪伴如何更具情绪价值?最新研究称冒充人类会让聊天更走心 AI陪伴如何更具情绪价值?最新研究称冒充人类会让聊天更走心 中国西安医疗团队赴哈萨克斯坦培训“洋中医” 中国西安医疗团队赴哈萨克斯坦培训“洋中医”

生活推荐

推荐内容

映象生活网 版权所有

Copyright @ 2008-2020  sh.ihnr.cn  All Rights Reserved

联系我们:407 373 852@qq.com