11月5日,由微博与新浪新闻联合主办的“新浪新闻·2025探索大会”在北京落幕。在大会主题分享环节,哈尔滨工业大学计算学部长聘教授、社会计算与交互机器人研究中心主任秦兵进行了题为《大模型时代情感交互的演进与对齐》的演讲。

哈尔滨工业大学计算学部长聘教授、社会计算与交互机器人研究中心主任秦兵-主题演讲
以下是演讲实录,内容经编辑略有删减:
感谢王巍总的邀请。作为新浪的老朋友,我很高兴今天能近距离聆听陈老师父子的分享。我从小品《吃面》开始关注陈老师的作品,直至今年的《戏台》,深受触动。陈老师多年来对艺术的执着追求与探索精神令人敬佩,使我深刻感受到陈老师父子对艺术的理解以及他们之间的深厚情感。在聆听陈老师父子跨界对话过程中,感受到陈老师的一些艺术思想和我的报告内容非常契合,例如陈老师提到的戏剧中规律与个性化问题。我们自2007年起开展情感计算研究,大模型的出现推动其持续演进,这也正是本报告所探讨的“演进与对齐”。陈老师对喜剧的追求源于内心的兴趣与执着,兼具内驱与外驱动力,这与大模型领域的“奖励函数”概念有异曲同工之妙。
本次大会的主题是“探索”,在探索过程中“创新与规矩”是最值得关注,科研与艺术均需追求创新,但也需遵循基本规则与根基。因此,本报告不仅涵盖个性化与创新内容,也涉及大模型安全与伦理等问题。我的报告主要分为三部分:交互的层级演进、交互的个性化及安全对齐。情感交互演进探讨情感计算的发展历程;情感的主观性以及个体认知与表达的多样性,针对同一实体或事件,可能引发不同情感;同时个性化行为及交互过程中的安全性至关重要。
具体来说,首先关于情感交互的层级与演进,我们自2007年起从事互联网情感计算研究。微博作为数据来源之一,用户常通过文字表达喜怒悲恐惊等情绪,另一数据来源为点评类平台,如大众点评、豆瓣、京东等。用户对商品的评价构成倾向性分析的基础,早期情感计算多基于这些社交媒体数据展开。随着技术发展,情感交互日益受到社会关注,从共情对话转化为具体行动,体现了从语言到行为的过渡。从对话式、智能体式到具身式情感陪伴,交互边界持续拓展。例如语言理解涵盖表达的行为解析,如对用户说“我很困”的回复,对话系统建议饮用咖啡提神;智能体时代则实现情绪理解与工具联动,通过APP完成下单;具身阶段进一步结合多模态理解与物理世界交互,实现下单与取送一体化服务。
无论处于何种层级,情感交互的本质均在于理解情绪并作出恰当回应。因此,个性化与伦理安全成为各个阶段临的共性挑战。个性化涉及多模态多元信息融合与长时记忆,需记录用户习惯并融合多渠道信息;伦理安全则关注生成内容的安全性及敏感场景下的安全边界界定。
展开来讲,在对话式交互中,个性化体现为语言风格建模,了解用户的偏好和习惯,同时生成内容可以模拟名人或动漫人物语气,伦理安全方面,大模型作为生成模型存在诸多安全风险,如言论是否恰当及错误安慰等。在智能体个性化层面,需考虑用户偏好,如咖啡品牌选择,并防范工具误调用导致的误操作及经济损失。具身式交互的个性化涉及日常规律、空间习惯与生活节奏,其现实层风险更为显著。例如,某电影中机器人以保护儿童为首要目标,甚至不惜伤害他人,反映出规则与伦理风险未全面考量时,实体动作误操作可能引发安全隐患。
无论情感交互边界如何扩展,个性化对齐与安全对齐始终是发展的双轮驱动。个性化对齐需挖掘用户情绪,情绪表达往往模糊,情绪价值需求亦较为隐秘。我们与心理学家合作,基于主动倾听理论,在不冒犯用户的前提下挖掘其内在情绪价值,提升交互能力。
总结而言,情感交互正经历从“语言共情”向“智能行动”再到“具身交互”的边界拓展;个性化对齐是情感交互的核心技术,需实现更全面的个性化对齐;安全风险上升要求我们加强安全防护,确保各层级在创新同时守住底线,这也是本次探索的核心议题。谢谢大家!
