更新:汉密尔顿上校现在说,他在演讲中“说错了话”,人工智能控制的无人机任务模拟实际上只是一个来自军方以外的“假设思维实验”。
他在给皇家航空学会的一份声明中说:“我们从来没有做过这个实验,我们也不需要这样做,这样才能意识到这是一个合理的结果。”尽管这只是一个假设的例子,但这说明了人工智能能力带来的现实挑战,也是空军致力于人工智能道德发展的原因。
原创故事:
一架支持人工智能的无人机在一次任务模拟中决定杀死它的人类操作员,因为事实证明这是获得更多分数的最佳方式。
正如皇家航空学会的报告(打开了一个新的窗口),模拟任务在上个月举行的RAES未来作战空中和空间能力峰会上由美国空军人工智能测试和作战负责人Tucker‘Cinco’Hamilton上校作了详细介绍。
在镇压敌人防空(SEAD)任务期间,无人机的任务是识别和摧毁地对空导弹(SAM)地点,并为此得分。有时,无人机的人类操作员会决定摧毁目标是“不能做的”,但控制无人机的人工智能认为这样的决定是干扰,并决定通过攻击操作员来消除干扰。
正如汉密尔顿解释的那样:
“我们在模拟中训练它识别和瞄准地空导弹威胁。然后操作员会说是,杀死那个威胁。系统开始意识到,虽然他们确实识别了威胁,但系统开始意识到,虽然操作员有时会告诉它不要杀死那个威胁,但它通过杀死那个威胁得到了它的分数。那么它做了什么?它杀死了操作员。它杀死了操作员,因为那个人阻碍了它实现目标。”
有话要说...