OpenAI的最新GPT-o1 AI模型是第一个展示出能够帮助专家复制已知——以及新的——生物威胁的能力,一位前公司内部人士本周告诉美国参议员。
“OpenAI的新AI系统是第一个展示出对生物武器风险的步骤,因为它有能力帮助专家计划复制已知的生物威胁,”OpenAI技术人员前成员William Saunders告诉司法委员会隐私、技术和法律小组委员会。
他警告说,这种能力可能带来“灾难性的危害”,如果没有适当的保障措施,AGI系统的开发。
专家还作证称,人工智能发展如此迅速,以至于一个潜在危险的基准,即人工通用智能(AGI),即将临近。在AGI水平上,AI系统可以在广泛的认知任务上与人类智能匹敌并自主学习。如果一个公开可用的系统能够理解生物学并在没有适当监督的情况下开发新武器,那么恶意用户造成严重危害的潜力将呈指数级增长。
“AI公司正在迅速取得建立AGI的进展,”Saunders告诉参议院委员会。“有可能在短短三年内建立一个AGI系统。”
Helen Toner——也是OpenAI董事会成员,并投票赞成解雇联合创始人兼CEO Sam Altman——也预计会在不久的将来看到AGI。她作证称:“即使最短的估计结果是错误的,人类级别的AI在未来十年或二十年内被开发的想法应该被视为一个现实可能性,需要立即采取重大的准备行动。”
在OpenAI工作了三年的Saunders强调了公司最近宣布的GPT-o1,这是一种AI系统,在其能力方面“取得了重大的里程碑”。正如Decrypt报道的那样,即使OpenAI表示决定远离GPT版本的传统数值增加,因为这个模型展示出了新的能力,使得它不仅被视为一个升级,而是一个演变——一种具有不同技能的全新模型。
Saunders还对AGI发展中缺乏足够的安全措施和监督表示担忧。他指出,“没有人知道如何确保AGI系统是安全和受控的”,并批评OpenAI对安全AI发展的新方法,更关心的是盈利而不是安全。
“虽然OpenAI在这方面开创了一些测试方面,但他们也一再将部署置于严谨之上,”他警告道。“我相信他们真的存在错过未来AI系统中重要危险能力的真实风险。”
证词还显示了OpenAI内部的一些挑战,特别是在Altman被解雇后曝光的挑战。“OpenAI的超对齐团队,负责开发控制AGI的方法,已经不复存在。在努力获取他们所需的资源后,其领导人和许多关键研究人员辞职了,”他说。
他的话只是AI安全专家一直在对OpenAI的方法提出的投诉和警告的又一块砖。共同创立OpenAI并在解雇Altman中发挥了关键作用的Ilya Sutskever在推出GPT-4o后辞职,并创立了Safe Superintelligence Inc.
OpenAI联合创始人John Schulman和其对齐负责人Jan Leike 离开了公司加入竞争对手Anthropic,Leike表示在Altman的领导下,安全“被闪亮产品抛在了后面”。
同样,前OpenAI董事会成员Toner和Tasha McCauley在《经济学人》发表了一篇专栏文章,主张Sam Altman将利润置于负责任的AI发展之上,向董事会隐瞒了重要发展,并在公司中培养了有害的环境。
在他的声明中,Saunders呼吁紧急的监管行动,强调AI发展中清晰的安全措施的重要性,不仅来自公司,还来自独立实体。他还强调了科技行业中举报者保护的重要性。
这位前OpenAI员工强调了AGI发展的更广泛影响,包括巩固现有的不平等和促进操纵和错误信息的可能性。Saunders还警告称,“自主AI系统的失控”可能导致“人类灭绝”。
由Josh Quittner和Andrew Hayward编辑
免责声明:本文章仅代表作者个人观点,不代表本平台的立场和观点。本文章仅供信息分享,不构成对任何人的任何投资建议。用户与作者之间的任何争议,与本平台无关。如网页中刊载的文章或图片涉及侵权,请提供相关的权利证明和身份证明发送邮件到support@aicoin.com,本平台相关工作人员将会进行核查。