美国与英国发布的AI安全指南解读
重点摘取
美国网络安全和基础设施安全局CISA与英国国家网络安全中心NCSC于周一联合发布了一份AI安全指南,获得16个国家的支持。这份20页的文档是首个获得全球共识的AI安全指南,且由谷歌、亚马逊、OpenAI、微软等各大公司专家共同撰写。NCSC首席执行官林迪卡梅伦在公开声明中指出,随着AI技术迅猛发展,国际社会需要协作行动,以应对网络风险,并确保安全成为开发过程中的核心要求。
以下是该指南的四个关键要点:
1 优先考虑“设计安全”和“默认安全”
文档强调了“设计安全”和“默认安全”这两个原则,这是保护AI产品免受攻击的前瞻性措施。作者呼吁AI开发者在决策过程中,将安全性与功能和性能并重,特别是在选择模型架构或训练数据集时。建议产品的默认设置应该是最安全的,并清晰传达替代配置的风险。根据指南,开发者应对后续的安全结果承担责任,而不是依赖客户来处理安全问题。
重要摘录:“用户无论是‘最终用户’还是整合外部AI组件的提供者通常缺乏足够的可视性和/或专业知识来全面理解、评估或处理与他们使用的系统有关的风险。因此,按照‘设计安全’的原则,AI组件的提供者应对下游用户的安全结果承担责任。”
2 复杂的供应链需要更高的谨慎性
AI工具开发者通常依赖第三方组件,如基础模型、训练数据集和API来设计自己的产品。庞大的供应商网络会增加攻击面,一个“薄弱环节”就可能对产品的安全产生负面影响。全球AI指南建议开发者在评估从第三方获取组件或自行制作时评估这些风险。在与第三方合作时,开发者应审核和监控供应商的安全状态,保持与自身组织相同的安全标准,并对导入的第三方代码进行扫描和隔离。
重要摘录:“如果未满足安全标准,您应该做好切换到其他解决方案的准备,尤其是对任务关键系统。您可以利用像NCSC的供应链指导这样的资源以及软件工件供应链级别SLSA等框架,跟踪供应链和软件开发生命周期的审核。”
3 AI面临独特风险
针对AI特定威胁,如提示注入攻击和数据污染,需要独特的安全考虑,CISA和NCSC在他们的指南中重点强调了这些威胁。“设计安全”方法的一部分包括围绕模型输出集成防护措施,以防止敏感数据泄露,并限制用于文件编辑等任务的AI组件的行为。开发者应将AI特定威胁场景纳入测试,并监测用户输入,防止对系统的利用。
海鸥加速器v6.63重要摘录:“‘对抗性机器学习’AML一词用于描述对机器学习组件包括硬件、软件、工作流和供应链基本脆弱性的利用。AML使攻击者能够导致机器学习系统中意想不到的行为,包括:

4 AI安全需持续和协作
指南文件列出了设计、开发、部署和操作维护四个生命周期阶段的最佳实践。在第四阶段,强调持续监测已部署的AI系统的重要性,以便及时发现模型行为的变化和可疑的用户输入。“设计安全”原则在任何软件更新中都应保持关键地位,指南还建议默认进行自动更新。最后,CISA和NCSC鼓励开发者利用反馈和信息共享与更大AI社区合作,持续改进他们的系统。
重要摘录:“在需要时,您应向更广泛的社区升级问题,例如发布公告以应对漏洞披露,包括详细且完整的共同漏洞枚举。您应