通过一项新的行政命令,拜登政府计划深入其政策工具箱的非立法部门,以管理日益强大的人工智能系统的风险,同时促进它们的发展。
白宫在今天上午发布的一份情况说明书中透露了这一议程的大纲;命令本身在美国东部时间中午之前还没有发布。[更新:以下是完整的首席执行官。]它首先提出了一项利用国防生产法案的计划,要求开发可能对国家安全、国家经济安全或国家公共卫生和安全构成严重风险的人工智能模型的公司在培训这些模型时向政府循环,然后分享他们的红队安全测试。
(想必,对于这些开发人员来说,跳过让研究人员尝试利用系统的基本安全步骤将不是一种选择,但只有《环境条例》的全文才会澄清这一点。)
《纲要》称,该命令还将指示发布了人工智能风险管理框架的国家标准与技术研究所(NIST)为红团队人工智能模型制定标准。然后,国土安全部和能源部将监督这些标准在关键基础设施中的应用。
与此同时,美国商务部将“制定内容认证和水印的指南,以明确标记人工智能生成的内容”–尽管谷歌等私营公司正在开发水印,以标记人工智能的输出,但没有一个行业范围的符号可供人们识别。
《纲要》还呼吁联邦机构在国家科学基金会的帮助下,在自己使用能够在不泄露个人数据的情况下训练人工智能模型的“隐私保护”技术方面树立更好的榜样。
声明还说,司法部和民权办公室将加强对去年秋天人工智能法案政策声明中突出的歧视性人工智能做法的审查。
该命令还将涵盖政府可以采取的促进人工智能创新的步骤,例如帮助公司共享数据和资源,资助更多的人工智能研究,鼓励联邦贸易委员会监管人工智能的反竞争使用,以及简化拥有人工智能专业知识的高技能外国人分享的移民程序。
Politico上周查看了该命令的草案,并报告称,其中还包含一些条款,如要求主要云提供商在其他国家的客户使用其服务进行人工智能模型培训时向联邦政府报告,以及建议联邦通信委员会调查人工智能如何使电信网络更具弹性,更不容易受到机器人通话和机器人电话的影响。
这项命令应该很快就会出现在政府的AI.gov网站上,最终会出现在联邦登记册上。在此之前,拜登政府采取了一系列其他行动,以应对人们对人工智能在促进其积极应用的同时可能被滥用的担忧。
例如,8月份,美国国防高级研究计划局(DARPA)宣布了一项人工智能网络挑战,鼓励安全研究人员开发基于人工智能的工具来保护关键软件系统。今年7月,白宫获得了亚马逊、人类、谷歌、拐点人工智能、Meta、微软和OpenAI的承诺,将遵循白宫声明中提出的负责任的人工智能原则。
白宫的声明还呼吁国会通过有意义的数据隐私立法来解决人工智能风险,但国会迄今不采取行动的历史让人们在这一点上没有多少希望。上周,参议院多数党领袖查克·舒默(纽约州民主党人)在华盛顿的一次活动中表示,他和其他立法者也在努力制定全面的人工智能立法。与行政命令不同,这不能被未来的首席执行官归零,但舒默表示,任何这样的法案都要到明年的某个时候才会出台。
有话要说...