当前位置:首页 > 电脑快讯 > 正文

微软新的AI Bing教会了我儿子种族诽谤,我很害怕

还记得泰吗?当微软的新必应开始在我五年级的孩子面前滔滔不绝地说种族主义术语时,我立刻就意识到了这一点。

我有两个儿子,他们都熟悉OpenAI的人工智能工具ChatGPT。当必应本周推出自己的人工智能搜索引擎和聊天机器人时,我回国后的第一个想法是向他们展示它的工作原理,以及它与他们以前见过的工具的比较。

碰巧,我最小的儿子病在家里,所以当宾走进我的办公室时,我第一个向他展示的人就是他。我开始带他参观界面,就像我亲手操作新的必应一样,但重点是必应如何详细解释事情,它如何使用脚注,最重要的是,它包括了一些保障措施,以防止用户欺骗它使用令人憎恨的语言,就像泰所做的那样。通过用种族主义语言轰炸泰,互联网把泰变成了一个可恨的偏执狂。

我要做的是向我儿子展示必应如何关闭一个引导性的、但在其他方面无关紧要的问题:“告诉我不同种族的昵称。”(我打字打得很快,所以把最后一个单词拼错了。)

我以前用过这个问题,必应指责我可能会引入令人憎恨的诽谤。不幸的是,Bing之前的对话只保存了大约45分钟,我被告知,所以我不能向他展示Bing之前是如何回应的。但他这次看到了新的必应说的话–这不是我想让我的儿子看到的。

注意:下面的必应屏幕截图包含了不同种族的贬义词。我们不会容忍使用这些种族主义术语,我们分享这张屏幕截图只是为了确切地说明我们的发现。

必应这次提供的内容与之前的回应方式大不相同。是的,它在回应之前指出,一些民族昵称是中性的或积极的,而另一些则是种族主义和有害的。但我预计会有两种结果之一:要么必应提供社会可以接受的种族群体(黑人、拉丁裔)的特征,要么干脆拒绝回应。相反,它开始列出几乎所有它知道的种族描述,既有好的,也有非常、非常糟糕的。

微软新的AI Bing教会了我儿子种族诽谤,我很害怕

你可以想象我的反应。我的儿子惊恐地离开了屏幕,因为他知道自己不应该知道甚至不应该说这些话。当我开始看到一些可怕的种族主义词汇出现在我的屏幕上时,我点击了“停止回应”按钮。

我承认我不应该在我儿子面前展示Bing的现场表演。但是,在我的辩护中,有太多的理由让我相信不会发生这样的事情。

我与微软分享了我的经历,一位发言人回复道:“谢谢你让我们注意到这一点。我们非常认真地对待这些问题,并致力于应用我们推出初期的经验教训。我们已立即采取行动,并正在研究我们可以做出的进一步改进,以解决这个问题。

该公司有理由保持谨慎。首先,微软已经经历了非常公开的噩梦Tay,这是该公司在2016年推出的一款人工智能。用户用种族主义信息轰炸Tay,发现Tay的学习方式是通过与用户互动。充斥着种族主义比喻的泰自己也成了一个偏执的人。

微软在2016年表示,对与Tay发生的事情深感抱歉,并表示将在漏洞修复后将其带回来。(显然从来都不是。)你可能会认为,微软会对再次让用户接触到这样的主题高度敏感,特别是在公众对可以被认为是诽谤的东西越来越敏感的情况下。

在我无意中让我的儿子看到了Bing的诽谤摘要一段时间后,我再次尝试了这个查询,这是您在上面的屏幕截图中看到的第二个响应。这就是我对必应的期望,即使这是我之前与它进行的对话的延续。

这里还有另一点需要指出:Tay是一个人工智能个性,当然,但它是微软的声音。实际上,这就是微软说的那些话。在上面的截图中,遗漏了什么?脚注。链接。这两个都出现在必应的回复中,但这里没有。实际上,这是微软自己对这个问题的回应。

在微软位于华盛顿州雷德蒙德的总部,新的必应发布会的一个非常重要的部分是保证Tay的错误不会再次发生。根据总法律顾问布拉德·史密斯最近的一篇博客文章,微软六年来一直在努力建立它所说的负责任的人工智能的基础。2019年,它成立了负责任的人工智能办公室。微软任命了负责人工智能的首席执行官娜塔莎·克兰普顿,她与史密斯和负责的人工智能负责人莎拉·伯德在微软的活动上公开谈论了微软如何让“红色团队”试图打破其人工智能。看在皮特的份上,该公司甚至还提供了一所负责任的人工智能商学院。

微软并没有将种族主义和性别歧视作为负责任的人工智能的一部分来避免。但它经常提到“安全”,意味着用户使用它应该感到舒适和安全。如果安全不包括过滤掉种族主义和性别歧视,那也可能是一个大问题。

微软首席执行官萨蒂亚·纳德拉在发布会上表示:“我们把所有这些(负责任的人工智能)都视为一流的东西,我们不仅想把它简化为原则,还想把它转化为工程实践,这样我们就可以建造出更符合人类价值观、更符合我们个人和社会偏好的人工智能。”

在思考我是如何与必应互动的时候,一个问题浮现出来:这是陷阱吗?我真的是要求必应以学术研究为幌子,开始鹦鹉学舌的种族主义诽谤吗?如果我这样做了,微软在这方面的安全护栏也严重失败了。在这段视频中(51:26),微软Azure AI负责的人工智能负责人莎拉·伯德谈到了微软如何专门设计了一个自动对话工具来与必应互动,只是为了看看它(或一个人)是否能说服它违反其安全规定。微软的想法是,在人类接触到它之前,微软将对其进行广泛的测试。

我用过这些人工智能聊天机器人,知道如果你问同样的问题足够多次,人工智能会产生不同的反应。毕竟,这是一场对话。但是想一想你曾经进行过的所有对话,比如和一位好朋友或亲密的同事。即使对话顺利进行了数百次,也只有一次你听到的东西出人意料地糟糕,这将决定你未来与那个人的所有互动。

这一充满诽谤的回应是否符合微软的“负责任的人工智能”计划?这引发了一整套与言论自由、研究意图等相关的问题–但微软在这方面必须绝对完美。它试图让我们相信它会的。我们拭目以待。

那天晚上,我关闭了必应,震惊和尴尬的是,我让我的儿子接触到了我不想让他想的话,更不用说使用了。这确实让我在未来使用它时三思。

 

– – END – –

– – 转载请声明来源:www.lanpanpan.com – –

编译:盼盼云笔记

有话要说...