需要欺骗OpenAI的新视觉系统吗

来源:网易 2022-04-05 14:23:39  阅读量:14165   

一个引人入胜的机器与人类智能案例研究

需要欺骗OpenAI的新视觉系统吗

需要欺骗 OpenAI 的最新视觉系统吗只需为您的目标添加一个手写标签

机器学习实验室 OpenAI 的研究人员发现,他们最先进的计算机视觉系统可以被不比钢笔和便笺簿更复杂的工具所欺骗如上图所示,简单地写下一个物体的名称并将其贴在另一个物体上就足以诱使软件错误识别它所看到的东西

我们将这些攻击称为排版 攻击,OpenAI 的研究人员在一篇博文中写道通过利用模型稳健地阅读文本的能力,我们发现即使是手写文本的照片也经常可以欺骗模型 他们指出,此类攻击类似于可以欺骗商业机器视觉系统的对抗性图像,但制作起来要简单得多

对抗性图像构成了真正的威胁,但这个特殊的例子并不太严重

对抗性图像对依赖机器视觉的系统构成了真正的危险例如,研究人员已经证明,他们可以通过在道路上贴上某些贴纸来欺骗特斯拉自动驾驶汽车中的软件在没有警告的情况下改变车道此类攻击对从医疗到军事的各种 AI 应用程序构成严重威胁

但这次特定攻击所带来的危险,至少目前是无需担心的有问题的 OpenAI 软件是一个名为 CLIP 的实验系统,未部署在任何商业产品中事实上,CLIP 不寻常的机器学习架构的本质创造了使这次攻击成功的弱点

CLIP 中的多模态神经元响应对象的照片以及草图和文本。

CLIP 旨在探索人工智能系统如何通过对庞大的图像和文本对数据库进行训练,在没有密切监督的情况下学习识别物体在这种情况下,OpenAI 使用了从互联网上抓取的大约 4 亿个图像—文本堆来训练 CLIP,该模型于 1 月发布

本月,OpenAI 研究人员发表了一篇新论文,描述了他们如何打开 CLIP 以查看其性能他们发现了他们所谓的多模态神经元——机器学习网络中的单个组件,不仅对物体的图像做出反应,还对草图,卡通和相关文本做出反应这令人兴奋的原因之一是它似乎反映了人脑对刺激的反应,观察到单个脑细胞对抽象概念而不是具体例子做出反应OpenAI 的研究表明,人工智能系统有可能像人类一样内化这些知识

未来,这可能会导致更复杂的视觉系统,但目前,这种方法还处于起步阶段虽然任何人都可以告诉您苹果和写有apple一词的纸之间的区别,但像 CLIP 这样的软件却不能允许程序在抽象级别链接单词和图像的相同能力造成了这种独特的弱点,OpenAI 将其描述为抽象谬误

排版攻击的另一个例子不要相信人工智能会把你的钱存入存钱罐

研究人员还发现,CLIP 的多模态神经元编码的偏差正是您从互联网获取数据时可能会发现的偏差类型他们指出,中东的神经元也与恐怖主义有关,并发现了一种对黑皮肤的人和大猩猩都会激发的神经元这复制了谷歌图像识别系统中臭名昭著的错误,该系统将黑人标记为大猩猩这是另一个例子,说明机器智能与人类的智能有多么不同——以及为什么在我们将生活交给 AI 之前,有必要将前者分开以了解其工作原理

开放RAN是未来5GvRAN的关键。PaulMiller强调,OpenRAN的关键目标是采用虚拟化和NFV分离的方式,并将其与垂直隔离相结合,从而将功能之间的供应商互操作性纳入最终目标。因此,这不仅仅是实现虚拟化,而是让不同供应商的不同组件协同工作。此外,最终目标是基于虚拟化软件的可互操作的端到端解决方案。

声明:以上内容为本网站转自其它媒体,相关信息仅为传递更多企业信息之目的,不代表本网观点,亦不代表本网站赞同其观点或证实其内容的真实性。投资有风险,需谨慎。

猜你喜欢

300

热门文章