人工智能安全新基准:两项国际标准问世

   时间:2024-04-17 17:05 来源:网界科技

【网界】4月17日消息,近日,全球人工智能领域迎来重要里程碑。世界数字技术院(WDTA)正式发布了《生成式人工智能应用安全测试标准》与《大语言模型安全测试方法》两项国际标准,这标志着国际组织首次针对大模型安全领域推出具体的国际标准,为全球人工智能的安全评估和测试设定了新的标杆。

据网界深入了解,这两项标准汇聚了全球顶尖的科技力量。OpenAI、蚂蚁集团、科大讯飞、谷歌、微软、英伟达、百度、腾讯等科技巨头的专家学者联手,共同为这两项标准贡献了智慧。其中,《生成式人工智能应用安全测试标准》以WDTA为主导,为使用大语言模型(LLM)的应用程序的安全性测试和验证提供了全面框架。该标准详细规定了AI应用程序架构各层的测试和验证内容,确保其从基础模型选择到运行时安全的每一个环节都能经过严格的安全性和合规性评估。

而由蚂蚁集团主导的《大语言模型安全测试方法》则为大模型的安全评估提供了实操性强的解决方案。它不仅提出了大语言模型的安全风险及攻击的分类方法,还首次明确了四种攻击强度的分类标准,为开发人员和组织提供了有力的工具,以识别和缓解潜在的安全漏洞,从而显著提升大语言模型构建的人工智能系统的安全性和可靠性。

WDTA人工智能安全可信负责任工作组组长黄连金在会议上强调,随着大语言模型在社会各领域的广泛应用,制定全面标准以应对安全挑战显得尤为重要。这两项标准的发布不仅填补了相关领域的空白,更为业界提供了明确的测试指南,对于提升AI系统的整体安全性、推动AI技术的健康发展以及增强公众对AI技术的信任具有深远意义。

在全球范围内,各国政府对大模型安全的监管和研究也在不断加强。中国政府就相继发布了多项相关政策和倡议,积极推动生成式人工智能的安全可信发展,同时也在全球人工智能治理领域寻求合作与共识,共同应对AI技术带来的挑战与机遇。

 
 
更多>同类内容
全站最新
热门内容