AI指示人们使聊天加热更热
发布时间:2025-07-04 10:28
该报纸报道说,6月30日在《自然人行为》上发表的一项研究教导说,人们倾向于拒绝人工智能(AI)对话机器人的情感支持,除非这种同理心被误认为是来自人类的。 AI谈话的生成机器人,尤其是大语言模型(LLM)的用户,由于面对公众而越来越受欢迎。他们可以联系用户并提供情感支持。先前的研究表明,LLM驱动的工具可以确定用户的情绪状态,他们的反应也被视为富有同情心和同情。但是,在谈话机器人的支持具有人支持的效果相同之前,尚不清楚。在这项研究中,阿纳特·佩里(Anat Perry)及其同事从以色列希伯来大学(Hebrew University of Israel)发现AI生成的支持被视为与人们的支持思维相比,这是缺乏同理心,除非这些回答被标记为人类。研究人员进行了九项研究,显示了6,282个主题AI产生的回应,并告诉他们一些答复是由人民撰写的,有些是由AI机器人撰写的。佩里等。值得注意的是,即使受试者审查了他们收到的回答是同情的,他们对他们认为自己是人的回应有更高的回应。比AI的即时回应,受试者更愿意等待人们的回应。作者还发现,对人们的思想做出回应会引起积极的情绪,例如舒适,认可,幸福,理解和较少的负面情绪,例如NG感到关注,愤怒,痛苦或问题,而不是标记为AI形成的回答。当受试者认为人们在考虑回应时使用人工智能帮助时,他们都必须得分少于同理心,积极的共鸣,积极的情绪和支持。这项研究的结果表明,AI谈话机器人可能会提供支持限制。特别是当移情或情感支持是前刺了,人们可以欣赏人们的回应。但是,由于学习沟通很短,因此将来需要在长期交流情感支持中使用和接受AI工具的进一步研究。 (Zhao xixi)相关论文信息:https://dii.org/10.1038/s41562-025-02247-w