研究表明谷歌AI视频分类器极易被对抗图像欺骗
jopen 8年前
<p style="text-align: center;"><a href="/misc/goto?guid=4958984127719761301" title="Google"><img alt="研究表明谷歌AI视频分类器极易被对抗图像欺骗" src="https://simg.open-open.com/show/1398f098be05592a1001a5275df0b684.png" /></a></p> <p>近段时间,作为全球最强大的科技公司之一,谷歌的日子并不好过,包括《卫报》在内的 250 个公司及机构宣布停止在谷歌平台投放广告,原因是它们的广告中出现了极端组织、种族歧视、反犹太主义等画面。</p> <p>对此,谷歌开始在视频内容认证工作中投放越来越多的 AI 资源,但现在的问题的是,这家巨头公司现用的算法很有可能还无法胜任这项任务。</p> <p>华盛顿大学最近发表的一份研究调查就明确地指出了这一问题。研究团队对谷歌面向客户推出的视频内容自动分类 Cloud Video Intelligence API 进行了测试。这套 API 由深度神经网络驱动的系统虽然在应对常规视频上表现非常好,但它却非常容易被对抗图像(adversarial images)糊弄过去。</p> <p style="text-align:center"><img alt="研究表明谷歌AI视频分类器极易被对抗图像欺骗" src="https://simg.open-open.com/show/8ede3e98bd319de3bb6dce6e14a8e3dc.jpg" /></p> <p>华盛顿大学研究人员指出,这家公司的 API 可以给测试视频的对象标示出诸如“动物”、“野生动物”、“公园”、“大自然”、“游客”等标签,但当他们向视频中插入一张汽车的图片之后,API 此时给出的标签则就可能变成“奥迪”。据悉,出现这种情况的几率高达 98%。</p> <p>研究人员表示,这意味着人们可以通过向某段非法视频插入良性图片来达到绕过视频过滤系统的目的。</p> <p>现在,像谷歌、非死book、推ter 等科技感公司都在开始利用 AI 过滤系统来帮助他们审核上传至其平台的内容。然而,AI 不可能完美,它们也会经常犯错、被骗。所以这些公司还需要作出更大的努力才能避免像现在这种情况的发生。</p> <p>来自: <a href="/misc/goto?guid=4959004957458837907" id="link_source2">cnBeta</a></p>