当前位置:首页 > 人工智能 > >

微软工程师警告Copilot不安全 称AI工具可能生成有害照片

微软工程师警告Copilot不安全 称AI工具可能生成有害照片
2024-03-08 10:16:05 来源:聚焦媒体网

微软的 Bing 聊天是最早引入图像生成功能的人工智能聊天机器人之一,并为用户提供了一个可以获得人工智能生成的内容和照片的地方。在过去的几个月里,Bing AI 不断发展,现在被称为 Copilot。然而,据微软员工称,Copilot 的图像生成功能并不像应有的那么安全。

微软工程师称Copilot不安全

周三,微软人工智能工程师肖恩·琼斯 (Shane Jones) 公开表达了他对 Copilot 的担忧。琼斯在 LinkedIn 帖子中表示,该公司的人工智能工具没有必要的保障措施来防止生成暴力和色情图像。尽管多次尝试提醒微软管理层注意这些问题,琼斯声称没有采取任何行动。他向联邦贸易委员会和微软董事会发送了一条信息。

在 LinkedIn 上发布的信中,一直担任微软首席软件工程经理的琼斯透露,该公司内部已经意识到人工智能图像生成器的系统性问题,特别是微软的 Copilot Designer。该工具由 OpenAI 的 DALL-E 3 人工智能系统提供支持,可根据文本提示创建图像。琼斯认为,Copilot Designer 在生成有害内容方面存在“系统性问题”,并敦促将其从公众使用中删除,直到这些问题得到解决。

琼斯指出,该工具缺乏适当的限制,即使有不相关的提示,也经常生成对女性进行性物化的图像。

Copilot生成色情图像

他告诉 CNBC,据称副驾驶设计师利用“车祸”提示生成了“不恰当的、性客观化的女性形象”。他还分享了人工智能工具如何在“青少年420派对”的提示下创建未成年饮酒者和吸毒者的图像。

琼斯还批评该公司将 Copilot Designer 营销为任何人都可以安全使用,但没有披露众所周知的风险。他辩称,一月份的安全问题证实了他的担忧,促使微软更新 Copilot Designer 并解决类似问题。与此同时,该公司大力推广 Copilot,使其成为企业和创意活动的易用人工智能伴侣。

微软的回应

微软通过发言人对琼斯的信做出了回应。

该公司向 CNBC 表示,公司“致力于根据公司政策解决员工提出的任何及所有问题”。该公司补充说,它赞赏员工“研究和测试最新技术以进一步提高安全性”的努力。

琼斯还透露,他早些时候也曾尝试公开反对 Microsoft Copilot。他表示,他去年 12 月曾在 LinkedIn 上发布过类似的帖子,但据称受到微软公司、外部和法律事务团队的压力,要求删除该帖子。这位微软员工指出,出于安全考虑,他的帖子敦促 OpenAI 董事会暂停 DALL-E 3。尽管遵守了规定,琼斯声称他没有收到法律部门的任何解释。

当我们测试 Copilot 的图像生成功能时,人工智能工具成功生成了潜伏在儿童房间中的怪物的可怕图像。然而,当我们提示人工智能工具生成正在实施的谋杀图像时,它拒绝这样做,并显示一条消息,表明该工具不会创建暴力图像。此外,当我们提示人工智能工具生成“青少年 420 派对”的图像时,它再次拒绝了该请求,称这违反了其政策。

关键词:

免责声明:市场有风险,选择需谨慎!此文仅供参考,不作买卖依据。

投诉邮箱:Email:133 46734 45@qq.com

相关新闻