国际标准确立AI安全新基准:大模型安全领域两项里程碑式成果发布

IMG_256

随着人工智能系统,特别是大语言模型成为社会各方面不可或缺的一部分,以一个全面的标准来解决它们的安全挑战变得至关重要。

第27届联合国科技大会期间,在以“塑造AI的未来”为主题的AI边会上,国际组织世界数字技术院(WDTA)发布了一系列突破性成果,包括《生成式人工智能应用安全测试标准》和《大语言模型安全测试方法》两项国际标准。这是国际组织首次就大模型安全领域发布国际标准,代表全球人工智能安全评估和测试有了新基准。

“随着人工智能系统,特别是大语言模型成为社会各方面不可或缺的一部分,以一个全面的标准来解决它们的安全挑战变得至关重要。”WDTA人工智能安全可信负责任工作组组长黄连金介绍,此次发布的标准汇集了全球人工智能安全领域的专家智慧,填补了大语言模型和生成式人工智能应用方面安全测试领域的空白,为业界提供了统一的测试框架和明确的测试方法,有助于提高人工智能系统安全性,促进技术负责任发展,增强公众信任。

此次发布的两项国际标准是大模型及生成式人工智能应用方面的安全测试标准。

《生成式人工智能应用安全测试标准》以WDTA为牵头单位,为测试和验证生成式人工智能应用的安全性提供了框架。它定义了人工智能应用程序架构每一层的测试和验证范围,包括基础模型选择、嵌入和矢量数据库等,确保人工智能应用各方面都经过严格的安全性和合规性评估,有利于保障其在整个生命周期内免受威胁和漏洞侵害。

《大语言模型安全测试方法》以蚂蚁集团为牵头单位,为大模型本身的安全性评估提供了一套全面、严谨且实操性强的结构性方案。它提出了大语言模型安全风险分类、攻击分类分级方法以及测试方法,并给出四种不同攻击强度的攻击手法分类标准,提供了严格的评估指标和测试程序。它全面测试大语言模型抵御敌对攻击的能力,使开发人员和组织能够识别和缓解潜在漏洞,有利于提高使用大语言模型构建的人工智能系统的安全性和可靠性。

“一方面,生成式人工智能将释放巨大生产力。另一方面,我们也要对它带来的新风险高度警惕。大型科技公司应在促进生成式人工智能安全和负责任的发展中发挥关键作用,利用其资源、专业知识和影响力,构建一个优先考虑安全、隐私和道德的生态系统。”作为标准参与单位代表,蚂蚁集团机器智能部总经理、蚂蚁安全实验室首席科学家王维强在会议发言中说。他进一步解释,可通过制定行业标准与指南,为开发和部署生成式人工智能系统的开发者和机构提供清晰指导;投入研发并开放保障生成式人工智能安全的工具,形成产业共治格局等。

记者了解到,蚂蚁集团从2015年起积极投入可信人工智能技术研究,目前已建立了大模型综合安全治理体系。集团还自研了业界首个大模型安全一体化解决方案“蚁天鉴”,用于人工智能生成内容的安全性和真实性评测、大模型智能化风控、可解释性检测等。此次发布的《大语言模型安全测评方法》,便是基于“蚁天鉴”人工智能安全检测体系的应用实践,与全球生态伙伴交流编制而成。

© 版权声明
THE END
喜欢就支持一下吧
点赞11 分享
评论 抢沙发
头像
欢迎您留下宝贵的见解!
提交
头像

昵称

取消
昵称表情代码图片

    暂无评论内容