科技圈重磅!
据财联社等媒体报道,曾在OpenAI工作近四年的前员工Suchir Balaji几周前被发现死在他位于旧金山的公寓中。旧金山首席法医办公室执行主任David Serrano Sewell周五已在一封电子邮件中证实了这一消息。
ntenteditable="false" style="text-align: center" loaded="success-image">
“已确定(Suchir Balaji)死亡方式为自杀”,David Serrano Sewell在一封电子邮件中表示。旧金山警察局也表示,初步调查显示,“没有发现谋杀的证据”。
OpenAI 发言人在电子邮件中说:“今天得知这一令人难以置信的噩耗,我们感到非常悲痛,在这一艰难时刻,我们向 Suchir 的亲人表示同情。”
全球首富、特斯拉CEO马斯克也在社交平台上转发了相关报道,并发出了一个“唔”(Hmm)做出评论。
OpenAI “吹哨人”
今年10月,这位26岁的人工智能研究员曾在接受媒体采访时表示对OpenAI违反版权法感到担忧,并认为“这项技术对社会弊大于利”,因此他也被称为针对OpenAI的“吹哨人”。
据悉,巴拉吉是一名印度裔美国人,曾在加州大学伯克利分校学习计算机科学,毕业后加入了OpenAI,参与过WebGPT的研发,后来又加入GPT-4的预训练团队,o1的推理团队以及ChatGPT的后训练团队。
在OpenAI工作了四年之后,巴拉吉突然辞职,并强调他认为人工智能这项技术给社会带来的危害将大于益处。他还表示,OpenAI的ChatGPT机器人(21.780, -0.21, -0.95%)涉嫌侵犯美国的版权法。
巴拉吉在社交平台X上的最后一篇帖子,正是介绍自己对于OpenAI训练ChatGPT是否违反法律的思考和分析。他强调,希望这不要被解读为对ChatGPT或OpenAI本身的批评。
OpenAI麻烦不断
今年6月,数十位OpenAI前员工通过一封公开信再次警告,像OpenAI这样的人工智能公司缺乏法律监管和内部批评机制,尤其是对“吹哨人”的保护远远不够。该公开信由十三名 OpenAI 前员工签名,并得到了包括“人工智能教父”Geoffrey Hinton 在内的三名外部人员署名支持。
公开信由此指出一个关键问题:在缺乏硬性监管的情况下,不能指望公司自愿披露AI系统的真实性能、局限和风险。员工有责任要求公司对AI安全风险负责,但员工正受制于公司的保密协议。
公开资料显示,谷歌、Meta、亚马逊、等公司均有成立专门的内部安全团队,确保公司负责地开发AI系统。目前,OpenAI也已新建了由Sam Altman领导的安全团队,其首要任务是评估OpenAI的安全流程和政策,由董事会拍板最终方案。不过,安全团队的三位负责人均在董事会任职,因此外界也质疑其能否真正解决安全隐患。OpenAI员工的举报信无疑加深了这一担忧和反思,在没有硬性监管的约束下,仅靠公司的自我约束能不能给予安全问题足够重视?需要打上一个问号。
此外,OpenAI公司目前与多家出版商、作家和艺术家因版权问题存在法律纠纷。还有多家媒体公司于去年12月提起诉讼,要求OpenAI公司与微软承担数十亿美元赔偿责任。
最早报道巴拉吉死讯的美国《圣荷西信使报》提到,巴拉吉掌握的资料原先被认为是诉讼的重要证据。
今年10月,OpenAI公司也完成了一轮重要融资,估值达到1570亿美元(约合人民币11420亿元),Thrive Capital领投此次融资,微软和英伟达等投资者也参与了融资。