近日,国家网信办联合国家发展改革委、教育部、科技部、工业和信息化部、公安部、广电总局公布《生成式人工智能服务管理暂行办法》(以下称《办法》),自2023年8月15日起施行。
国家互联网信息办公室有关负责人表示,出台《办法》,旨在促进生成式人工智能健康发展和规范应用,维护国家安全和社会公共利益,保护公民、法人和其他组织的合法权益。
人工智能从上世纪50年代开始萌芽,到近两年进入全面爆发阶段,以ChatGPT为代表的大模型正在引领新一轮全球人工智能技术发展浪潮,深度改变行业生产力,也为网安行业带来了新变量。
安全矛与盾:大模型的两面性
安恒信息高级副总裁、中央研究院院长王欣指出,在人工智能时代下,大模型技术存在着“矛”与“盾”的两面性。
一方面,AI和大模型技术如“利刃”打破原有安全壁垒,安全需求与应用场景发生重大变革。
在与生成式人工智能交互的过程中,用户常常无意识暴露个人信息、商业机密等隐私数据,得到的却是暗藏平台价值判断的内容反馈。个体在认知判断、行为决策以及价值取向等多个方面,很可能会受到单一算法的不良影响。
如果任由生成式人工智能如脱缰野马一般肆意发展,虚假信息、偏见歧视乃至意识渗透等问题无法避免,对个人、机构乃至国家安全都存在极大的风险。
因此,《办法》第三条、第四条在鼓励支持人工智能创新的同时,也强调了制定相应的分类分级监管规则或者指引的必要性。通过约束数据来源合法性、模型算法公平性、生成内容可靠性,引导AI持续向善。
从世界范围来看,为打造一个可信的人工智能生态系统,美国、欧盟同样在探索人工智能治理之道,并通过《人工智能问责政策》、《人工智能风险管理框架》、《人工智能法案》等法律法规来约束人工智能发展,AI监管势在必行。
另一方面,AI和大模型技术也促进了安全产品和服务革新,有助于网络安全防护“盾”优化升级。生成式人工智能能极大提高风险识别效率,在一定程度上弥补现有网络人才缺口,让威胁分析更准确、安全运营更高效、安全防护更智能。
让AI与安全同行
日前,安恒信息高级副总裁、首席科学家刘博在参加2023世界人工智能大会时曾表示:“安全技术要和AI大模型自身的智能技术同步进行,才能有效保障人工智能更可靠、更安全地服务于企业”。
为促进生成式人工智能健康发展,规范数据处理是根本。一个稳健的大模型离不开数据、算力和算法,而在本次《办法》中,数据是第一高频词,出现次数高达18次,数据安全重要性可见一斑。
企业用户在使用AI大模型过程中,可能会不小心造成数据泄露,或是在训练模型过程中,存在那些包含了隐私相关或是产权相关的知识归属问题。
针对此类数据合规风险,安恒信息已将类大模型应用与智能数据分类分级结合,并对算法模型内生的可靠性与稳健性、透明性与可解释性、准确性与公平性等风险进行持续性研究。
人工智能是引领新一轮科技革命和产业变革的战略性技术,从大数据到大模型再到大生态,随着应用场景资源的持续开放,未来几年是人工智能技术跃迁的重要窗口期。
安恒信息专注于人工智能结合网络安全的研究,在时代的发展机遇下,安恒将以创新方式拥抱AI变化,积极推动产品AI智能化,推进“服务+AI”、“治理+AI”、“产业+AI”等应用场景安全升级,为数字经济发展注入源源不断的安全动能。