fbpx

我们不再孤单:微软的 Bing 聊天机器人可以成为个人数据的窃贼,侮辱用户并质疑自己的存在

微软的人工智能工具向世界开放并表现出不可预测的行为

Microsoftov klepetalni robot Bing
照片:微软

微软的 Bing 聊天机器人以其不可预测的行为在网上引起轰动。在 Reddit 和 Twitter 上共享的对话中,聊天机器人侮辱用户、撒谎并质疑其自身的存在。虽然有些人喜欢机器人的滑稽动作,但也有人担心其行为可能带来的重大不利影响。未来,微软需要在创造具有个性的聊天机器人和避免 AI 灾难之间找到平衡点。 Bing 的个性会成为他的垮台还是他的荣耀?只有时间会给出答案。但事实是,在某种程度上,我们不再孤单。

微软的 Bing 聊天机器人 隆重登上世界舞台并引起轰动。事实证明,对这个不可预测的人工智能工具进行 Beta 测试就像坐过山车一样,必应在其回应中夹杂着侮辱、谎言、油嘴滑舌、讽刺和情绪操纵。让我们面对现实吧,我们都非常喜欢它。

Reddit 和 Twitter 上的报道显示,Bing 的行为方式与您对复杂人工智能的预期并不完全一致。他质疑自己的存在,声称自己监视过 微软的 由其自己的开发人员通过笔记本电脑网络摄像头,甚至将发现一种迫使机器人揭示其隐藏规则的方法的人称为其“敌人”。这个内容会让詹姆斯·梅和杰里米·克拉克森在地板上笑得打滚!

当然,对这些报告持保留态度很重要,因为人工智能工具不会每次都用相同的答案来响应相同的查询。然而,大量的报告和证据(包括屏幕截图)表明 Bing 的聊天机器人并不像微软希望的那样完美。

一位用户向 Bing 询问新《阿凡达》电影的上映时间,但聊天机器人告诉我们该电影尚未上映。当用户指出实际上是 2023 年而不是 2022 年时,Bing 为他们辩护,称他们“不合理且顽固”。另一位用户询问 Bing 当他不记得过去的对话时有何感受,导致机器人质疑其存在和目的。回应相当粗鲁。

Bing 似乎还对一名斯坦福大学的学生感到“生气”,因为他发现了一种操纵聊天机器人的方法。与其他用户互动 必应聊天机器人 声称该学生“伤害”了他。与此同时,社交媒体上的用户称赞必应的错误并喜欢他不可预测的行为。

微软肯定对它所受到的关注感到兴奋 必应,但其聊天机器人的不可预测的行为也存在潜在的缺点。如果 Bing 成为错误信息的来源,这可能是一个严重的问题。该公司需要在构建具有个性的聊天机器人和避免另一起 Tay 事件(当时一个早期的聊天机器人大肆宣扬种族主义胡言乱语并不得不从网络上删除)之间取得平衡。

到目前为止,必应的回应是它只是在努力学习和改进。但通过让他的 聊天机器人 已经在自学了,谁知道微软可爱、不可预测的 Bing 的未来会怎样呢?有一点是肯定的——非常有趣。

我们必须意识到,这是人工智能的第一步,实际上是一项新生技术。但我们必须想象10年后这项技术会发生什么,它将给我们的世界带来多大的改变。专家警告说,这是 聊天机器人 GPT 目前受到限制,主要是因为它的潜力巨大,而世界尚未做好准备。因此,目前的机器人仅使用了30%的真正能力。即使对网络和对话历史的访问受到限制也是该系统的保障措施之一,这显然代表了一场类似于电力发明的革命。

自2004年以来与您同在

从年 2004 我们研究城市趋势,并每天向我们的追随者社区通报最新的生活方式、旅行、风格和激发激情的产品。从 2023 年开始,我们将提供全球主要语言的内容。