Google的算法出过哪些囧事?
我们觉得这里头有些玩笑是 Google 故意做的。
众所周知,Google 的支柱业务———在线广告一直有通过算法,把用户进行区分对待,让不同的人看到不同类型的广告。
为了解不同的人所能看到的 Google 广告有什么区别,卡耐基梅隆大学和国际计算机科学协会(ICSI)展开了一项研究。通过他们开发的名为 Adfisher 的程序,系统模拟出了大量虚拟的男性和女性身份,并让他们访问一些招聘网站。结果发现在之后 Google 显示的广告中,针对男性的招聘广告所宣称的工作待遇都要优于针对女性的。
这不免让人误解,难道 Google 有明显的性别歧视倾向,连广告都不放过?研究人员倒是表示事实未必如此。这很有可能是算法所导致的错误,也不排除是广告主针对特定人群进行广告投放的结果。
尽管这次女权主义者也许不会做出抗议,但此前算法还是给 Google 引起过不少尴尬事。
把人识别为大猩猩
Google Photos 是一款今年 5 月才发布的相册应用。其亮点之一就是可以智能识别图像中的人和物体,并做出分类。
然而,上周它却因为把照片中两名美籍黑人错误标记为大猩猩,而引起广泛关注。招致用户一番不满和抱怨后,Google 不得不承认它在算法上的不足,并对当事人致歉,来避免更多的纠纷。
用圣经解释恐龙灭绝
Google 起家的搜索引擎算法也并没给这家公司少惹事。今年 5 月就有用户发现,当他们搜索恐龙灭绝的原因时,排在其结果首位的却是一家宗教网站。而其对问题的解释居然运用了《圣经》进行论证。
难道这家科技公司开始宣扬宗教,还是程序员的一个彩蛋?恐怕,更合理的解释只是算法的问题。
白宫都被错误标记
同样是今年 5 月,有用户在 推ter 上爆料,用 Google 地图搜索“Nigga House”,地图上显示的居然是白宫。而 Nigga 可是对黑人歧视性的俚语。
不知奥巴马如果得知此事会怎么想,闹不好,可是一场政治危机。当然,最后发现这又是一次算法过失,并得到了及时的改正。
儿童应用显示少儿不宜内容
今年 2 月,Google 旗下的在线视频网站 油Tube 发布了它的儿童专版应用,通过算法来为孩子们推荐合适的视频,以此打造一个健康的互联网环境。
荒唐的是,5 月份的时候,这个本来让父母放心的应用却显示了露骨的性语言,甚至是恋童癖的笑话。这也免不了,引起了家长们的重视和投诉。Google 也因此受到了政府的调查。
分不清“卖”和“苹果股价”
2012 年 12 月,Google 的财经频道(Google Finance)也因为算法问题,出现了恶作剧一样的事件。
当用户输入 “Sell”(卖)或 “Over Sold”(卖空)时,系统竟然会分别跳转到苹果和亚马逊的股价页面。考虑到这些公司之间的竞争关系,小的恶作剧也不足为奇。不过,这次两个关键词与上述两家公司实在相差太大。Google 的算法问题错的有些离谱。
把 KFC 标识当做真人抹掉了
除了把人当成大猩猩,Google 的图像识别算法把非人的对象当做人也是常有的事。出于对个人隐私的保护,Google 会给街景地图上出现人物的面部打上马赛克,但有时也会出意外。
在 2009 年的时候,就连肯德基的标识上那个白胡子老爷爷也没能逃过 Google 算法的打码。纵然图片和真人头像悬殊很大,英国的一家肯德基店铺的标牌上依然被模糊处理了。不过,这家店铺此后在街景地图上却得到了人们“格外地关注”。
尽管自 Google 诞生以来,算法就成了它取得成功的重要的因素,但它毕竟不能解决所有问题。我们也只能期望凭借数据的积累和技术的完善,能让算法日益进步,并改善我们的生活。
题图、封面图来自:站酷海洛创意