从“低准确率”到99%成功:OpenAI的新工具能否检测深度伪造?

CN
Decrypt
关注
1年前

OpenAI,作为生成式人工智能领域的先驱,正在应对社交媒体上误导性内容不断蔓延的挑战,着手检测深度伪造图像。在最近于加利福尼亚州拉古纳海滩举行的《华尔街日报》Tech Live conference上,该公司的首席技术官米拉·穆拉蒂(Mira Murati)发布了一款新的深度伪造图像检测器。

穆拉蒂表示,OpenAI的新工具在确定图片是否使用人工智能生成方面拥有“99%的可靠性”。

人工智能生成的图像可以包括从轻松愉快的创作,比如方济各教皇穿着蓬松的巴黎世家大衣,到可能引发财务灾难的欺骗性图像。人工智能的潜力和风险显而易见。随着这些工具变得更加复杂,区分真实和人工智能生成的内容正在变得越来越具挑战性。

虽然该工具的发布日期仍然保密,但其公布已引起了相当大的兴趣,尤其是考虑到OpenAI过去的努力。

2022年1月,该公司发布了一款据称可以将人类书写与ChatGPT等模型生成的机器文本区分开的文本分类器。但到了7月,OpenAI悄然关闭了该工具,并发布了一则更新,称其错误率不可接受。他们的分类器将真实的人类书写错误地标记为人工智能生成的内容,错误率达到了9%。

如果穆拉蒂的说法属实,这将是该行业的一个重要时刻,因为目前检测人工智能生成的图像的方法通常不是自动化的。通常情况下,爱好者们依赖直觉,并专注于众所周知的挑战,这些挑战阻碍了生成式人工智能,比如描绘手部、牙齿和图案。人工智能生成的图像与人工智能编辑的图像之间的区别仍然模糊不清,尤其是当人们试图使用人工智能来检测人工智能时。

OpenAI不仅致力于检测有害的人工智能图像,还在设定监管措施,以审查其自身模型,甚至超出了公开陈述的内容指南。

正如Decrypt发现的,OpenAI的Dall-E工具似乎被配置为在未经通知的情况下修改提示,并在要求生成特定输出时悄悄地出现错误,即使它们符合已发布的指南并避免创建涉及特定姓名、艺术风格和种族的敏感内容。


ChatGPT中可能是Dall-E 3提示的一部分。来源:Decrypt

检测深度伪造并不仅仅是OpenAI的努力。一家开发这一能力的公司是DeepMedia,专门为政府客户提供服务。

大公司如微软和Adobe 也在积极行动。它们推出了被称为“AI水印”系统的机制。这一机制由内容真实性和可信度联盟(C2PA)推动,将一个独特的“cr”符号放置在一个漫画气泡内,表示人工智能生成的内容。该符号旨在作为透明度的信标,让用户能够辨别内容的来源。

然而,与任何技术一样,它并非绝对可靠。存在一个漏洞,即携带该符号的元数据可以被剥离。然而,作为一种解决方法,Adobe还推出了一项云服务,能够恢复丢失的元数据,从而确保符号的存在。但这也并非难以规避。

随着监管机构朝着将深度伪造定为犯罪行为迈出步伐,这些创新不仅仅是技术上的成就,而是社会上的必要性。OpenAI以及微软和Adobe等公司最近的举措突显了一个共同努力,即确保数字时代的真实性。即使这些工具正在升级以提供更高程度的真实性,它们的有效实施取决于广泛的采用。这不仅涉及科技巨头,还包括内容创作者、社交媒体平台和最终用户。

随着生成式人工智能的快速发展,检测器在区分文本、图像和音频的真实性方面仍然面临困难。目前,人类的判断和警惕是我们对抗人工智能滥用的最佳防线。然而,人类并非不可错误。持久的解决方案将需要科技领袖、立法者和公众共同努力,共同应对这个复杂的新领域。

免责声明:本文章仅代表作者个人观点,不代表本平台的立场和观点。本文章仅供信息分享,不构成对任何人的任何投资建议。用户与作者之间的任何争议,与本平台无关。如网页中刊载的文章或图片涉及侵权,请提供相关的权利证明和身份证明发送邮件到support@aicoin.com,本平台相关工作人员将会进行核查。

HTX:注册并领取8400元新人礼
广告
分享至:
APP下载

X

Telegram

Facebook

Reddit

复制链接