AI冒充人类让聊天更走心

内容摘要6月30日发表于《自然-人类行为》的一项研究指出,人类倾向于拒绝来自人工智能(AI)对话机器人的情绪支持,除非这种同理心被误认为来自人类。生成式AI对话机器人,尤其是使用大语言模型(LLM)的对话机器人,自面向公众以来,受欢迎程度日益上升。

6月30日发表于《自然-人类行为》的一项研究指出,人类倾向于拒绝来自人工智能(AI)对话机器人的情绪支持,除非这种同理心被误认为来自人类。

生成式AI对话机器人,尤其是使用大语言模型(LLM)的对话机器人,自面向公众以来,受欢迎程度日益上升。它们可以与用户进行社交互动并给予情绪支持。

此前研究显示,LLM驱动的工具能确定使用者的情绪状态,而且它们的回应也被看作具有同理心和共情能力。不过,之前并不清楚来自对话机器人的支持是否和来自人类的支持具有相同的效果。

在这项研究中,以色列希伯来大学的Anat Perry和同事发现,相比被认为来自人类的支持,AI生成的支持会被视为缺乏同理心,除非那些AI生成的回复被标记为来自人类。

研究人员开展了9项研究,给6282名受试者看了AI生成的回复,并告知他们有些回复是人类写的,有的是AI对话机器人写的。Perry和共同作者观察到,虽然受试者评价他们收到的回复富有同理心,但对他们以为交流对象是人类的回复评价更高。

相比来自AI的即时回应,受试者更愿意等待他们以为来自人类的回复。作者还发现,相比标记为AI生成的回复,受试者以为的来自人类的回复能唤起更多的正面感受,如慰藉、认可、幸福、被理解,以及更少的负面感受,如感到焦虑、生气、痛苦或烦恼。当受试者认为人类在构思回复时使用了AI协助,那他们对同理心、积极共鸣、正面情绪和支持的评分都更低。

这项研究结果表明,AI对话机器人提供的支持可能存在局限性。尤其是在期待同理心或情绪支持时,人们可能更看重来自人类的回复。不过,由于研究中的交流很简短,今后需要进一步研究AI工具在长期情绪支持交流中的使用和接受度。

相关论文信息:10.1038/s41562-025-02247-w

 
举报 收藏 打赏 评论 0
今日推荐
浙ICP备19001410号-1

免责声明

本网站(以下简称“本站”)提供的内容来源于互联网收集或转载,仅供用户参考,不代表本站立场。本站不对内容的准确性、真实性或合法性承担责任。我们致力于保护知识产权,尊重所有合法权益,但由于互联网内容的开放性,本站无法核实所有资料,请用户自行判断其可靠性。

如您认为本站内容侵犯您的合法权益,请通过电子邮件与我们联系:675867094@qq.com。请提供相关证明材料,以便核实处理。收到投诉后,我们将尽快审查并在必要时采取适当措施(包括但不限于删除侵权内容)。本站内容均为互联网整理汇编,观点仅供参考,本站不承担任何责任。请谨慎决策,如发现涉嫌侵权或违法内容,请及时联系我们,核实后本站将立即处理。感谢您的理解与配合。

合作联系方式

如有合作或其他相关事宜,欢迎通过以下方式与我们联系: