北京时间7月27日,新壹科技在北京发布了“新壹视频大模型”,这是国内首款聚焦于视频的大模型。新壹视频大模型是以视频生成为核心的多模态AIGC模型,拥有从脚本生成、素材匹配、智能剪辑配音到数字人播报的AI全流程视频生产能力。新壹视频大模型能够辅助各行业视频创作者构筑高效智能、专业安全的创作体系,并可接驳营销机构、零售电商、文旅餐饮、金融保险、适老养老和政府政务等多个行业的落地应用场景。
新壹视频大模型发布仪式
新壹视频大模型:打造AI全流程视频生产能力
新壹科技CEO雷涛介绍,新壹视频大模型是以视频生成为核心的多模态AIGC模型。拥有了从脚本生成、素材匹配、智能剪辑配音到数字人播报的AI全流程视频生产能力。从而让每个人都能实现高质量、高效率、低成本、无门槛的视频创作。
新壹科技CEO雷涛发布会现场对相关产品进行演示讲解
新壹视频大模型具备多模态感知、实时学习、自迭代及多场景交叉推理的核心能力。
新壹视频大模型能够处理多模态的输入信息,可以理解文字的含义,识别图像的内容,感知音乐的情绪,基于对内容深度准确的理解,生成视频。
新壹视频大模型采用了自监督学习方案,会观察和学习大量的视频数据,通过分析视频的结构、内容、风格等多个维度,自我理解和把握视频制作的规则和逻辑。从而在处理视频制作任务时,能有出色的表现。
新壹视频大模型能跨场景进行知识迁移与关联,选择合适素材,调整视频风格,生成满足创作者需求且质量高的视频。例如在制作一个历史类视频时,创作者可能需要插入一些人物、经济和文化等不同场景的内容。新壹视频大模型能够理解这些场景的特点和联系,进行交叉推理,选择合适的素材,生成连贯、符合主题的视频内容。
雷涛表示,我们坚持选择面向行业级的垂直场景对新壹视频大模型做定向训练,以提供更加精准、专业的服务,满足客户的多样化需求。每个行业和场景的视频制作需求都有其独特的规则和特点,通过定向训练,我们的模型可以更好地理解和适应这些规则和特点,从而提供更加精准和专业的服务。
垂直场景应用落地检验大模型成功与否
由于没有从实际场景出发,导致大部分通用大模型的实用性并不强,难以真正重塑实际的生产。需要建立一个连接AI技术能力和垂直场景需求的大模型,能够提供释放生产力的能力,并创造更多实际价值的垂直场景大模型。
目前业界已经形成共识,能否在垂直场景应用落地并且具备商业化能力,才是检验大模型成功与否的标准。
新壹科技创始人、董事长韩坤发布会现场发表演讲
新壹科技董事长韩坤表示,新壹科技致力于释放AIGC视频生产力。接下来,新壹科技会持续更新迭代新壹视频大模型,发挥公司在视频行业的优势,深耕AIGC视频,并在这个基础上,推出更多的垂直场景服务平台和产品,比如为政府政务、金融保险、适老养老、智能交互数字人以及游戏等垂直场景提供服务,目前已经有解决方案和产品正在落地。