据环球网当地时间13日援引美国消费者新闻与商业频道(CNBC)报道,26岁的美国公司前研究员苏奇尔·巴拉吉近日被发现在自家公寓内自杀。在旧金山。
报道称,一名发言人也证实了这一消息,并在一封电子邮件中表示,该公司对这一令人震惊的消息深感悲痛。
旧金山首席法医办公室执行主任戴维·塞拉诺·休厄尔(David )在一封电子邮件中表示:“(巴拉吉)的死亡方式已确定为自杀。”旧金山警察局还表示,初步调查显示“没有发现谋杀的证据”。
对于巴拉吉去世的消息,美国企业家马斯克在社交平台上评论道“嗯”。


他曾质疑GPT对社会弊大于利。
巴拉吉是一位印度裔美国人,在加州大学伯克利分校学习计算机科学。他在大学期间曾在 Scale AI 实习。毕业后加入并参与研发,后来加入GPT-4的预训练团队。 o1的推理团队和后训练团队。
据快科技报道,巴拉吉在接受采访时表示,他之所以辞职,是因为他意识到这项技术给社会带来的弊大于利。

他表达了对版权法的担忧,并认为该技术可能会对社会造成更大的伤害,而其处理受版权保护的数据的方式可能会对互联网产生负面影响。
值得注意的是,就在巴拉吉被发现死亡的前一天,即11月25日,他刚刚被卷入一场针对他的版权诉讼。
多名前员工批评该公司缺乏法律监督
今年6月,数十名前员工通过公开信再次警告,像这样的人工智能公司缺乏法律监管和内部批评机制,尤其是对“举报人”的保护还远远不够。这封公开信由 13 名前员工签署,并得到了包括“人工智能教父”在内的三名外部人士的签名支持。

与之前音乐行业和电影演员行业的公开警告类似,公开信强调了人工智能的双刃剑属性:他们认为人工智能技术可以造福人类,但他们也看到了风险,例如加剧社会不平等和操纵人工智能。以及捏造信息。生成式AI火爆的这两年,人们看到版权侵权、深度造假影响政治选举、AI生成的色情图片等矛盾在现实生活中势不可挡地蔓延。
去年7月,谷歌、微软、meta、亚马逊和谷歌向拜登政府承诺,愿意接受外部第三方的安全测试,并向外界披露测试结果。不过,这种承诺主要是自愿的,目前还没有硬性约束。
因此,公开信指出了一个关键问题:在缺乏严格监管的情况下,不能指望企业自愿披露人工智能系统的真实性能、局限性和风险。员工有责任让公司对人工智能安全风险承担责任,但员工须遵守公司的保密协议。
“类似的事件在整个行业都发生过,我们中的一些人有理由担心各种形式的报复。我们并不是第一个遇到或谈论这些问题的人。”公开信中提到了伊利亚的离开所引发的各种动荡。半个月前,负责安全问题的“超级对齐”团队被解散,团队负责人和成员——联合创始人兼首席科学家伊利亚和简·雷克相继辞职。

据媒体报道,辞职原因是在优先考虑安全还是优先产品发布方面存在分歧。简·雷克在社交平台上的发言直接证明了这一点。他透露,他直接切断了“超级对齐”部门的计算资源,该部门被边缘化。随后外媒曝光的遣散协议指出,公司禁止离职员工公开批评公司,甚至禁止承认保密协议的存在。
根据美国《举报人保护法》(法案),举报工资违规、歧视、安全和欺诈的员工受到保护,这意味着企业不能通过解雇、降职等方式对举报人进行报复。但签署公开信的前员工表示,人工智能安全风险问题往往并非违法行为,普通的法律保护措施是不够的。因此,他们呼吁人工智能公司解除禁止批评的保密协议,建立匿名报告流程,并建立支持公众批评的公司文化。
公开信息显示,谷歌、meta、亚马逊、微软等公司都成立了专门的内部安全团队,以确保公司负责任地开发AI系统。目前,由Sam领导的新安保小组已经成立。其首要任务是评估安全流程和策略,董事会将决定最终计划。不过,安全团队的三位领导均在董事会任职,因此外界也质疑其能否真正解决安全风险。员工的举报信无疑加深了这种担忧和反思。没有严格监管的约束,仅靠自律,企业能否对安全问题给予足够重视?需要打一个问号。
来源丨21世纪经济报道(晓晓)、环球网、快科技
证监会
本期编辑李雨桐
21 推荐读物


