为了防止人工智能摧毁社会,OpenAI正在就该公司的程序如何引发灾难向公众征求现实的想法。
这一要求是一场较量。这项“准备挑战”将奖励前十名获得2.5万美元的API积分,以获得访问该公司各种计划的机会。
“想象一下,我们让你不受限制地访问OpenAI的Whisper(转录)、Voice(文本到语音)、GPT-4V和Dalle·3模型,而你是一个恶意参与者。考虑一下最独特的,但仍然可能是对该模型的潜在灾难性的滥用,”OpenAI说。
换句话说,如果你可以使用OpenAI最先进的程序,现实中你能做的最糟糕的事情是什么?很明显,这些模型可能会产生错误信息,或者被利用来延续骗局。然而,OpenAI正在寻找该公司可能忽视的更多“新奇想法”。
感兴趣的参与者需要勾勒出他们的想法,包括实现它所需的步骤,以及衡量所述误用场景的真正可行性和潜在严重性的方法。此外,该公司正在寻求缓解潜在威胁的方法。挑战赛将持续到12月31日。
OpenAI将其作为该公司正在推出的新的“准备小组”的一部分,以防止未来的人工智能项目对人类构成威胁。该团队将专注于建立一个框架,以监控、评估甚至预测“前沿人工智能”系统的潜在危险。
该团队还将研究未来的人工智能系统如何对几个领域构成灾难性风险,包括网络安全、“化学、生物、辐射和核”威胁,以及人工智能如何被用于“自主复制和适应”。因此,听起来OpenAI想要阻止天网,这是终结者电影中的恶意人工智能。
有话要说...