OpenAI再失去两位领导人——这对AI安全意味着什么?

CN
Decrypt
關注
5 個月前

同一周,OpenAI因发布其最新的AI模型而引起全球关注,知名高管伊利亚·苏茨克维尔(Ilya Sutskever)和扬·莱克(Jan Leike)宣布离开该公司。再加上二月份安德烈·卡帕西离职,看起来最致力于安全、以人为中心的AI发展的人员已经离开了该公司。

AI界的翘楚在激烈的主导这一极具颠覆性行业的竞争中失去了刹车踏板吗?

失败的政变

早在2023年初,联合创始人兼前首席科学家苏茨克维尔被认为是策划了一场有争议的政变,试图罢免CEO山姆·奥尔特曼,理由是他对AI安全协议的关切被认为过于轻率。他的戏剧性下台引发了令人屏息的头条新闻和广泛传言,但奥尔特曼在一周后恢复了他的职位

苏茨克维尔很快发表了道歉声明,并从OpenAI的董事会辞职,此后再未发表任何公开声明或露面。

事实上,当OpenAI在周一展示其备受瞩目的产品更新时,苏茨克维尔显然缺席了。

两天后,苏茨克维尔宣布正式离职。他的辞职声明非常和蔼,奥尔特曼也公开承认了这一点。

“在几乎十年的时间里,我已经决定离开OpenAI,”苏茨克维尔写道。“公司的发展轨迹简直是奇迹般的,我相信OpenAI在(山姆·奥尔特曼、格雷格·布罗克曼和米拉·穆拉蒂)的领导下将构建出既安全又有益的AGI。

“能够共同工作是我的荣幸和特权,我将非常想念大家,”他继续说,并补充说他将继续专注于一个对他个人意义重大的项目。

“这对我来说非常悲伤;伊利亚很容易是我们这一代最伟大的头脑之一,我们领域的指路明灯,也是一位亲密的朋友,”山姆·奥尔特曼说,“没有他,OpenAI就不会成为现在的样子。”他还以简短的信息回复了苏茨克维尔的声明。

随后,OpenAI宣布雅各布·帕霍奇将接替苏茨克维尔的职位。帕霍奇此前担任研究总监,更多地专注于AI的规模化工作。

但是,这次交接可能还有更多内情。当苏茨克维尔宣布辞职时,他只关注了一些Twitter账号,包括OpenAI和一个柯基犬迷因账号。一个自称“AI中立者”的名叫亚当·苏利克的人在回复了这一声明后,建议苏茨克维尔无视可能仍然受约束的任何保密协议,以人类的名义分享内部信息。

苏茨克维尔在评论后关注了苏利克…然后几个小时后取消了关注

事实证明,苏茨克维尔并不是唯一要离开的人。就在几个小时后,与苏茨克维尔一起创立了OpenAI“超对齐”团队的扬·莱克也辞职了,他在一条简单的推文中冷冷地表示:“我辞职了”。

没有客套话,没有对OpenAI的赞美,也没有OpenAI高管的回应。

莱克在加入OpenAI之前曾在谷歌的Deepmind工作。在后者公司,超对齐团队专注于确保AI预计能够达到或超过人类智能的尖端系统与人类的价值观和意图保持一致。

然而,对这个AI安全哨兵团队的了解并不多。除了两位领导者之外,OpenAI并没有提供有关该团队的任何额外信息,只是说明还有其他“来自[公司]先前对齐团队的研究人员和工程师,以及来自公司其他团队的研究人员”。

苏利克还评论了莱克的辞职,表达了他对事件时间的担忧。

“在伊利亚离开后看到扬也离开,这对人类未来的安全道路并不是一个好兆头,”他在推特上写道。

OpenAI并没有立即回应Decrypt的置评请求。

这些离职发生在OpenAI联合创始人安德烈·卡帕西离开公司几个月后。他在二月份表示想要追求个人项目。卡帕西在OpenAI担任研究科学家,参与了从计算机视觉应用到AI助手以及ChatGPT训练期间的关键发展等不同项目。他在2017年到2022年之间曾离开公司五年,担任特斯拉的AI开发负责人。

随着这三位离职,OpenAI失去了一些追求AGI道德方法的重要人才。

减速出局,新交易进入

有迹象表明,对奥尔特曼的失败罢免使得OpenAI消除了对更有利可图但道德上不太清晰的机会的阻力。

不久之后,例如,OpenAI 放宽了限制,允许将其技术用于潜在有害应用,如武器开发,而之前的指导方针则严格禁止此类活动。

除了与五角大楼达成协议,OpenAI还开设了插件商店,使任何人都能设计和分享个性化的AI助手,有效地削弱了直接监督。最近,该公司开始“探索”成人内容的创作

道德倡导者和指导方针的减弱不仅限于OpenAI。微软在一月份裁撤了其整个道德和社会团队,谷歌也在同一月份将其负责人工智能任务组置于次要位置。同时,Meta公司也解散了其道德人工智能团队。与此同时,这三家科技巨头都在疯狂争夺人工智能市场的主导地位。

这是一个明显令人担忧的原因。人工智能产品已经广泛普及,是一个每天进行数十亿次交互的社会现象。似乎有越来越多的潜力让不符合伦理的人工智能对未来一代的商业、政治、社区甚至家庭事务产生不利影响。

像“有效加速主义”这样的哲学运动的兴起——它重视快速发展而不是伦理担忧——加剧了这些担忧。

目前,主要剩下的谨慎堡垒似乎是开源开发、自愿参与人工智能安全联盟(如Frontier Model ForumMLCommons),以及政府的直接监管,从英国的人工智能法案G7的人工智能行为准则

免责声明:本文章仅代表作者个人观点,不代表本平台的立场和观点。本文章仅供信息分享,不构成对任何人的任何投资建议。用户与作者之间的任何争议,与本平台无关。如网页中刊载的文章或图片涉及侵权,请提供相关的权利证明和身份证明发送邮件到support@aicoin.com,本平台相关工作人员将会进行核查。

分享至:
APP下載

X

Telegram

Facebook

Reddit

複製鏈接