人工智能监控的兴起令人担忧。政府集体追踪和识别公民的能力可能意味着公众隐匿的终结。但是,但正如研究人员一再证明的那样,有一些方法可以欺骗这样的系统。 最新的例子来自比利时KU Leuven大学的一组工程师。 在上周在preprint服务器arXiv上分享的一篇论文中,这些学生展示了简单的印刷图案如何能够欺骗人工智能系统,该系统旨在识别图像中的人物。 从人工智能的角度来看,如果你打印出一个学生特别设计的图片,并把它挂在你的脖子上,你就像披了一件隐形衣。 正如研究人员所写:“我们相信,如果我们把这项技术与复杂的服装模拟技术结合起来,我们就能设计出一款T恤,它能让一个人在自动监控摄像头面前几乎隐形。”(他们没有提到,但众所周知,这是威廉吉布森(William Gibson)的科幻小说《零历史》(Zero History)中一个重要的情节设置。) 这可能看起来很奇怪,但它实际上是人工智能世界中一个众所周知的现象。这类模式被称为对抗性的例子,它们利用计算机视觉系统脆弱的智能来欺骗它们,让它们看到不存在的东西。 在过去,对抗性的例子被用来愚弄面部识别系统。(只要戴上一副特殊的眼镜,人工智能就会认为你是米拉·乔沃维奇(Milla Jovovich)。)它们被做成贴纸,印在3D物体上,甚至被用来制作可以愚弄算法的艺术品。 许多研究人员警告说,对立的例子有潜在的危险。例如,它们可以被用来欺骗自动驾驶汽车,让它们把停车标志当作灯柱来阅读,或者它们可以欺骗旨在识别疾病的医疗人工智能视觉系统。这可能是为了医疗欺诈的目的,甚至是故意造成伤害。 在最近的这项研究中,我们通过谷歌研究人员David Ha发现的确实有一些需要注意的地方。最重要的是,学生们开发的对抗性补丁只能欺骗一个名为YOLOv2的特定算法。它甚至不能与谷歌或其他科技公司开发的现成计算机视觉系统相媲美,当然,如果一个人在看图像,它也不能工作。 这意味着,一件T恤能让你隐身于所有监控系统之外的想法,至少目前还只存在于科幻小说中。随着人工智能监控在世界各地的部署,我们中越来越多的人可能渴望找到一种方法来恢复我们的隐匿性。谁知道呢,这些令人产生幻觉的反面例子可能会成为下一个流行趋势。 |