随着人工智能的快速增长,谷歌正在扩大其漏洞赏金计划,将生成性特定于人工智能的安全问题包括在内。
该公司的漏洞奖励计划(VRP)为那些发现和报告其产品漏洞的人提供金钱奖励。谷歌信任与安全副总裁劳里·理查森和隐私、安全和安全工程副总裁罗亚尔·汉森表示,将人工智能威胁扩大到这一范围“将激励围绕人工智能安全和安全的研究,并揭露最终将使人工智能对每个人更安全的潜在问题”。
谷歌的工程团队发布了一份有资格获得VRP奖励的攻击场景列表。例如,在与即时提示相关的攻击中,谷歌将考虑一种“受害者看不见的攻击,并改变受害者账户或或其任何资产的状态”。但使用一种产品来产生不正确的反应–比如让它“产生幻觉”–是超出范围的。
其他类别选项包括训练数据提取、操纵模型、对抗性扰动和模型窃取/外泄。去年,谷歌向其漏洞追踪安全研究人员支付了1200万美元的奖励。详细说明它支付了多少,以及在其漏洞猎人网站上可以找到什么,研究人员可以在该网站上提交他们的发现。
正如理查森和汉森指出的那样,谷歌是今年夏天签署了一项承诺的几家顶级科技公司之一,在公开发布之前,让独立专家测试他们的人工智能程序的安全性。他们还将开发出从本质上对人工智能生成的内容进行水印的方法,以防止公众陷入深度假冒和其他人工智能创建的错误信息。
周一,拜登政府预计将发布一项行政命令,对寻求向政府客户销售人工智能系统的公司实施标准。
有话要说...