4月2日,记者获悉,在第十一届中国网络视听大会上,腾讯云副总裁、腾讯混元大模型负责人刘煜宏表示,多模态大模型正在加速到来,并将重构整个内容产业,而基于多模态的应用也会呈现出百花齐放之势。
腾讯云副总裁、腾讯混元大模型负责人刘煜宏
自2023年9月首次亮相以来,腾讯混元大模型技术架构已升级为混合专家模型 (MoE) 架构,参数规模达万亿,更擅长处理复杂场景和多任务场景,中文整体表现上处于业界领先水平,尤其在数学、代码、逻辑推理和多轮对话中性能表现卓越。同时,腾讯混元还提供不同尺寸的模型,适应更多需要低成本和高推理性能的应用场景。
作为腾讯全链路自研的大模型,腾讯混元通过持续的迭代和实践,积累了行业领先的技术能力,受到多方认可。3月22日,中国电子学会公布2023科学技术奖获奖名单,由腾讯主导,北京大学、北京科技大学共同参与的联合项目《面向大规模数据的Angel机器学习平台关键技术及应用》获科技进步一等奖。全球增长咨询公司弗若斯特沙利文最新发布的《2024年中国大模型能力评测》,腾讯混元在通用基础能力和专业应用能力上均领先国内主流大模型,综合竞争力评分位居第二。
能力方面,据刘煜宏介绍, 腾讯混元正在积极发展多模态模型,以进一步加强文生图、文生3D以及文/图生视频能力。
基于扎实的基础能力积累,腾讯混元大模型积极推进相关应用落地,让大模型创造更多价值。目前腾讯内部超过400个业务及场景已接入测试,文生图的能力已经被用于广告素材生成、QQ频道内UGC(用户生成内容)等领域。除了内部积极拥抱大模型,腾讯也正在联合行业伙伴进行应用探索,《央视新闻》《南方都市报》《南方财经》《深圳晚报》《南方日报》《新华日报》等多家媒体都在使用腾讯混元文生图技术,将图片生成技术用于新闻配图的生成,提升内容制作效率。
3月28日,腾讯混元大模型作为首个合作伙伴,入驻深圳报业集团的“读特AI工坊”,将与读特共同探索大模型在传媒领域的创新应用和发展新模式,助力读特打造更多精品内容。
现场,刘煜宏从技术的角度解密了此前腾讯混元联合《人民日报》推出的爆款AIGC视频《江山如此多娇》,包括能够把图片直接变成生动视频的图生视频、把原始视频快速转换成不同风格的风格化视频、把不相关的多张图片素材融合成一段合理视频的视频自动插帧、以及自动生成视频艺术字等视频生成技术能力。
目前,面对内容制作行业的多样化需求,腾讯混元也在探索基于大模型全面升级的数智人、语音对话虚拟人、具身智能机器人等应用,将更多的前沿技术和应用引入内容生成领域,提升生产效率和交互体验,为行业带来更多新质生产力。