马斯克创办的 xAI 研发的 Grok-2 等 AI 大模型生成的误导性图像引争议

   日期:2024-09-04     来源:网络整理    作者:二手钢材网    浏览:250    评论:0    
核心提示:智东西9月3日消息,据《华尔街日报》9月2日报道,近期一些带有戏谑意味、政治误导性的AI图像在社交媒体平台X上流传,例如“特朗普与哈里斯缠绵”、“奥巴马吸食可卡因”、“米奇拿枪”等,画面内容令用户感到迷惑和不适。在这些画面中,“死对头”特朗普与哈里斯动作亲密,童话世界里的米奇却拿枪、抽烟。

这些AI图像都是由Grok-2等AI大模型生成的,Grok-2是由马斯克创办的美国AI大模型独角兽xAI开发的,来自于美国科技巨头谷歌。

近期,谷歌不断完善AI生成图片内容的审核机制,避免AI输出带有偏见、模棱两可、错误、种族主义、与历史事实不符的内容。

针对类似问题,美国AI模型独角兽此前已禁止使用AI生成特定人物图像,以加强对AI图像生成内容的审查。

1. xAI 新一代大型模型 Grok-2 默许政客被恶搞

打开社交媒体平台X(原文),你可能会看到这些“令人震惊”的图片:米老鼠喝啤酒、海绵宝宝穿纳粹制服、美国前总统唐纳德·特朗普(Trump)亲吻美国副总统卡马拉·哈里斯( )()。

这些令人困惑和不舒服的图像是使用 xAI 和谷歌的新生成 AI 模型或软件生成的。

▲AI技术生成的图像,特朗普将哈里斯“抱在怀里”,画像清晰(图片来源:华尔街日报)

8月14日,xAI推出了新一代大型语言模型Grok-2。模型发布没几天,X平台就被大量据称由Grok-2生成的图像淹没。这些图像中,“死对头”特朗普和哈里斯亲密合影,童话世界中的米奇手拿枪抽烟。这些用生成式AI技术制作的图像不仅损害了政客形象,还让受版权保护的角色做出一些冒犯性动作。“如果迪士尼看到这个,可能笑不出来。”

Grok-2 大型语言模型由德国 AI 图像和视频生成初创公司 Black Labs 支持,目前仅向 X 平台的付费订阅用户开放。

根据X平台的政策,用户不得分享可能混淆或误导事实、故意伪造或最终造成人身或财产损失的内容。Grok-2发布的当天晚些时候,虽然部分非法AI图像已无法在X平台上检索到,但用户仍然可以使用Grok-2生成充满“恶趣味”的新作品。

不过,作为X平台实际控制人的马斯克似乎并不介意这种政治恶搞,今年7月,他转发了哈里斯的一段视频,视频中哈里斯称自己是“终极多元化员工”。

内容审查专家表示,类似的生成式AI工具可能会在美国选举周期中生成一些虚假信息,甚至蔓延至社会。

8月19日,也就是2024年民主党全国代表大会开幕前一天,特朗普发布了一张疑似由AI生成的图像。当时,由于现任美国总统拜登已经放弃竞选连任,经过党内投票,这张AI图像的主角哈里斯已经提前锁定了民主党总统候选人提名。

图片描绘的是“哈里斯在芝加哥发表演讲”的场景,背景是一面带有镰刀和锤子图案的红旗,似乎暗示哈里斯是共产党员,从而引发政治争议。

2. 谷歌的大模型屡屡失败,在敏感元素上不分黑白

谷歌的聊天机器人,由其同名的大型语言模型提供支持。

今年 2 月推出新版聊天机器人之前,谷歌对模型进行了调试,使其在遇到涉及生成字符的指令时,能够反馈更加多样化、更加模糊的字符图像。

例如,在生成医生图像时,AI通常倾向于给出白人男性的图像,谷歌希望通过“多样化”来降低AI图像生成模型的“偏见”。

但不到一个月,该模型就出了大问题。在生成具有“种族多样性”的图像时,模型在宗教、种族、性别等匹配上出现错误,导致多张人物图像不符合史实。在遭到大量网友批评后,谷歌决定暂停该模型的图像生成功能,为AI图像生成的潜在风险踩下“刹车”。

谷歌副总裁、聊天机器人负责人萧志强在最近的一次采访中表示,确保AI模型遵循用户的指令是谷歌坚守的原则,“这是用户的,我们为用户服务。”

尽管如此,聊天机器人生成的部分图像仍然违背了历史事实,不少X平台用户截图质疑谷歌模型的内容审核能力。

针对该模型输出攻击性和种族偏见内容,谷歌首席执行官表示,“这是不可接受的”,公司将“全面解决这个问题”。

然而,谷歌近日因利用AI技术生成的图片内容不准确而再次激怒用户。

8月中旬,谷歌最新一代智能手机Pixel 9系列上市,Pixel 9系列引入了名为“AI”的AI照片编辑工具,用户可以通过输入文字提示,调用AI来修改照片中的内容。

但有用户发现,该应用允许用户添加一些非法元素,如让海绵宝宝“佩戴”纳粹标志等,这一内容安全漏洞引发用户强烈反感。

谷歌发言人表示,公司“正在不断加强和改进现有的针对我们人工智能模型的安全保障措施”。

谷歌今年8月底透露,其AI聊天机器人将重新上线人物图像生成功能,初期仅向付费订阅的英文用户开放。同时,谷歌在AI图像生成的审核方面也取得了“重大进展”,但“不可能每张生成的图像都准确无误”。

3.人工智能生成图像的伦理和法律界限需建立行业基准

当前,AI图片生成软件不断试探着社交媒体平台的政策底线,这一现象引发了争议与反思,例如,科技公司是否应该管控、如何审核前沿AI图片生成软件产出的内容?

在将生成式AI技术开放给网民自由创作之前,AI图像生成软件应具备有效的安全防护措施,确保AI生成的作品不违反法规或伦理标准。这是科技公司在AI内容审核方面面临的压力。

除了伦理困境之外,AI模型和软件背后的开发者还需要承担很多潜在的法律责任,因为他们用于训练AI模型和软件的训练数据涉及侵犯知识产权等权利。

2023年,艺术家们对AI图像初创公司AI和涉嫌侵权提起集体诉讼。此次集体诉讼的对象还包括和等一系列拥有AI图像生成模型的公司。

除了艺术家的集体诉讼,AI还面临美国视觉媒体公司Getty的诉讼,后者指控AI侵犯其训练模型的权利。对此,Getty发言人表示,该公司目前已经推出了自己的AI图像生成模型。

AI图像生成模型DALL-E于2022年推出,在去年收到艺术家的集体诉讼后,DALL-E模型界面增加了新的选项,允许创作者检查个人上传的图像不用于训练下一代DALL-E模型。

《华尔街日报》母公司新闻集团与CNN签署了内容许可协议,允许其在一定限度内自由访问和采集新闻集团现有的媒体资源。

“我们最终会弄清楚这一点。”知识产权保护律师表示,这类涉及人工智能知识产权版权的法律纠纷,可能会为人工智能的法律边界开创先例。届时,其他人工智能公司在训练模型和聊天机器人时,可以使用哪些图片、视频等数据,就会有一个参考标准。

结论:谷歌积极纠正错误,而 xAI 反其道而行

AI图像生成软件是否能够生成特定知名人物的图像,是本轮AI内容审核风波的主要争论点之一。

包括谷歌在内的多家科技公司均禁止使用AI图像生成软件创作包含特定人物和易识别角色的AI作品。

由于马斯克坚持言论自由,xAI的Grok-2模型选择保留特定人物和角色的图像生成功能。然而,此举导致xAI遭到科技行业监管机构的批评。

加州大学洛杉矶分校教授Sarah T.致力于内容审核研究,她认为用户会利用前沿的AI技术深度伪造视频、声音、照片等,以传播虚假信息。

他补充道,传统社交媒体中存在的所有问题,生成式AI仍然需要面对,而且更难察觉。尤其是利用AI技术生成的图像等视觉内容,有时更有说服力。

宾夕法尼亚大学教授皮纳尔表示,平台试图设置一些规则,比如禁止关键词,以防止滥用AI技术。但与此同时,用户也可以找到安全漏洞来绕过这些规则和限制,从而获得自己想要的内容。“用户会变得更加聪明,最终将能够利用漏洞创造非法内容。”

 
打赏
 
更多>同类资讯

0相关评论
推荐热播视讯

推荐视频

    Copyright © 2017-2020  二手钢材网  版权所有  
    Powered By DESTOON 皖ICP备20008326号-2