10月26日消息,谷歌公司于10月24日发布博文,宣布推出SAIF风险评估工具,旨在帮助人工智能开发者和组织评估其安全态势,识别潜在风险,并实施更强的安全措施。
SAIF简介
IT之家注:谷歌去年发布了安全人工智能框架(SAIF),旨在帮助用户安全、负责任地部署AI模型,SAIF不仅分享了最佳实践,还为行业提供了一个安全设计的框架。
为了推广这一框架,谷歌与行业伙伴共同成立了安全人工智能联盟(CoSAI),以推动关键的AI安全措施。
SAIF风险评估工具
谷歌目前已经在新网站SAIF.Google上提供SAIF风险评估工具,该工具以问卷形式运行,用户回答后会生成定制化的检查清单,指导他们确保AI系统的安全。
工具涵盖多个主题,包括:
AI系统的训练、调优和评估
对模型和数据集的访问控制
防止攻击和对抗性输入
生成性AI的安全设计与编码框架
用户在回答问题后,工具会立即生成一份报告,突出AI系统面临的具体风险,如数据中毒、提示注入和模型源篡改等。
每个风险都附有详细解释及建议的缓解措施,此外用户还可以通过互动SAIF风险地图了解在AI开发过程中如何引入与缓解不同的安全风险。
未经允许不得转载:头条资讯网_今日热点_娱乐才是你关心的时事 » 谷歌宣布推出saif风险评估工具