3月13日,华创证券“算力赋能,应用无限”论坛在京举办,AI算力、网络和数据安全等50余家上市公司就人工智能技术创新应用进行深度交流。永信至诚集团CTO、智能永信总经理张凯受邀出席,发表《AI大模型安全测评数字风洞》主题演讲,提出AI大模型急需常态化测试评估,永信至诚「数字风洞」产品体系双管齐下,全面支撑AI大模型基础设施安全与内容风险测评,为AI数字健康提供强有力保障。
开展常态化测试评估是实现AI大模型安全的必要前提
随着AI技术的发展和广泛应用,特别是AI大模型的兴起,推动着社会生产力的不断创新与变革,也带来了前所未有的安全风险和挑战。张凯提出,“百模大战”时代下,一些实际存在的AI大模型安全问题引发公众的深切担忧,一是AI大模型作为复杂的软件系统,面临基础设施和软件安全风险,如系统漏洞、数据泄露、模型篡改等;二是AI大模型虽然提高了内容产出质量,但同时生成的内容可能包含误导信息或偏见内容,被用于不良目的,如钓鱼邮件和恶意软件的编写,降低网络攻击等犯罪门槛。
为促进AI大模型产业健康发展和规范应用,国家持续加强对AI技术和应用的安全监管,先后颁布实施《生成式人工智能服务管理暂行办法》(中央网信办等七部门联合发布)以及《生成式人工智能服务安全基本要求》(全国网安标委发布),都提出开展AI安全评估、建立常态化监测测评手段等要求,这为推动AI大模型安全落地指明了方向。常态化安全测试评估已经成为实现AI大模型安全的必要前提。
AI大模型安全测评「数字风洞」,支撑AI大模型全生命周期安全检查
针对AI大模型存在的安全问题以及大众的担忧,结合监管要求,张凯认为要从实质安全运营的角度出发,基于AI大模型安全测评「数字风洞」,对基础设施安全和内容安全风险进行持续性检查。
一、产品乘服务,打造基础安全设施测试平台
AI大模型安全测评「数字风洞」作为一个以安全检测为核心,以“产品乘服务”体系为手段,以安全风险防范化解为目标的测试评估平台,通过模拟各种网络攻击和系统入侵场景,检验AI大模型在不同攻击下的韧性,识别AI大模型基础设施存在的风险,预见和预防未来可能出现的威胁。同时基于永信至诚自主研发的风洞时光机系统,构建“测试-发现风险-迭代优化-再测试-再迭代优化”的科学测评流程,通过安全风险的反复验证、消除和收敛,提升实质性安全。
二、以AI测试AI,强化AI大模型内容过滤系统
针对内容安全风险,张凯强调AI大模型安全测评「数字风洞」的核心优势在于集成了永信至诚AI春秋大模型和「数字风洞」产品体系的能力。基于100+提示词检测模板以及20万+基础提问,AI大模型安全测评「数字风洞」以攻击者视角构建出引导AI大模型产生不当回答的测试载荷,对AI大模型的安全规则和过滤机制进行深入测试,评估其在处理潜在敏感、违法或不合规内容时的反应,确保AI大模型输出内容更符合社会伦理和法律法规要求,避免安全隐患变成安全事件。
对于AI大模型安全测评「数字风洞」的应用价值,张凯认为可以在多方面体现,例如,监管机构可以通过「数字风洞」对市场上已公开使用的AI大模型以及将要上市的AI大模型进行安全测评,为安全合规工作提供智能化手段支持;AI大模型厂商或AI大模型安全公司可以利用AI大模型安全测评「数字风洞」充分识别自身模型的弱点和安全内容漏洞,进一步强化产品本身的过滤系统和内容辨别能力。
2022年,我国人工智能核心产业规模已达5,000亿。据沙利文咨询预测,2024年我国人工智能市场规模将突破7993亿。这也意味着,随着AI技术的广泛应用,AI大模型安全测试评估赛道拥有巨大的市场潜力和发展空间。张凯认为,AI发展的大体历程可以分为三个阶段:AI助手、AI工具以及AI智能体。在AI智能体阶段,「数字风洞」作为AI大模型的安全基座,持续支撑AI大模型常态化安全测试评估,为AI技术在千行百业的安全应用保驾护航,保障AI“数字健康”,带给世界安全感。