中国质量新闻网
您当前位置: 新闻中心>>中国质量报>>第六版>>

“刷脸”究竟有多靠谱

2018-08-09 11:13:50 中国质量新闻网-中国质量报

□ 新华社记者 李 宓

2009年,多名美国亚裔消费者投诉,尼康相机的“眨眼提醒”功能总是错误地提示他们拍照时眨眼了;2015年,美国谷歌公司基于面部识别技术开发的一种图片应用,将一位用户的黑人朋友标记为“猩猩”。

面部识别技术越来越先进,并不断渗透我们的日常生活。一些人乐观地认为,“刷脸”时代正在向我们走来。可是,“刷脸”真的靠谱吗?至少从目前看,还得打上一个问号。

准确度欠缺

最近一段时间,“刷脸”接二连三地出糗。

在美国,有机构使用亚马逊公司的面部识别系统扫描了535名国会议员的面部照片,并与相关数据库中的2.5万张罪犯照片比对,结果28名议员被系统识别为罪犯。

英国多个城市的警方开始试应用面部识别技术。但最近公布的有关数据显示,伦敦警方使用的面部识别系统错误率高达98%,被批评为“几乎完全不准确”。伦敦警察局局长克雷茜达·迪克对此辩护说,她不认为这项技术会带来大量逮捕行动,但公众“期待”执法机构测试使用面部识别技术。

英国警方曾将面部识别技术应用在音乐会、节日庆典或足球赛等场合。据英国媒体报道,在威尔士加的夫举行的2017年欧洲冠军联赛决赛中,警方使用的面部识别系统产生2400多次匹配,其中2200多次是“假阳性”匹配,即把普通人错认为犯罪嫌疑人。

美国麻省理工学院“媒体实验室”研究人员测试了微软、IBM(国际商用机器)和中国旷视科技3家公司的面部识别系统,让3个系统判断1270张图片中人物的性别。结果显示,3个系统对肤色较浅男性的判断错误率都低于1%,识别效果较好;但对肤色较深女性的判断错误率从21%到35%不等,识别效果差。

训练数据不理想

对于“媒体实验室”的研究,IBM公司沃森和云平台业务首席架构师鲁奇尔·普里说,人工智能系统深度学习的有效性有赖于训练的基础数据。即使人工智能模型本身设计优异,不理想的训练数据只能导致高错误率及带有偏见的判断。曾有研究显示,在美国广泛使用的一套面部识别系统训练数据中,超过75%的图像为男性,超过80%的人为白人。

英国《自然》杂志在近期一篇评论文章中也指出,无论在学术界还是产业界,开发出复杂算法会广受赞誉,但相对而言,很少有人关注数据如何收集、处理和归类。导致人工智能产生偏见的一个主要因素,就是训练所使用的数据质量不佳。

麻省理工学院人工智能研究人员乔纳森·弗兰克尔认为,很多用于面部识别的图片质量不佳,尤其是那些街头监控摄像头拍下的图片,也是导致面部识别技术在实际应用上经常出错的一个重要原因。

忧心隐私安全

除本身存在技术问题,面部识别大量使用还引发了对个人隐私的担忧。美国乔治敦大学法律中心一份关于技术与隐私的报告显示,美国目前有16个州允许美国联邦调查局使用面部识别技术,将犯罪嫌疑人照片与相关数据库中的驾照照片进行比对。

美国数字化权利保护组织电子前沿基金会的詹妮弗·林奇说,很多人并不同意警方在寻找罪犯时比对自己的照片,他们并不知道州政府有这种政策。

出于对隐私和安全的担忧,一些人甚至研制推出了反监测装备。德国人亚当·哈维曾在德国混沌通信大会上介绍了自己研制的“假面”产品,比如在衣服上绘制起迷惑效果的图案,让面部识别系统难以识别真实的脸。

《中国质量报》

(责任编辑:景欣)
最新评论
声明:

本网注明“来源:中国质量新闻网”的所有作品,版权均属于中国质量新闻网,未经本网授权不得转载、摘编或利用其他方式使用上述作品。已经本网授权使用作品的,应在授权范围内使用,并注明“来源:中国质量新闻网”。违反上述声明者,本网将追究其相关法律责任。若需转载本网稿件,请致电:010-84648459。

本网注明“来源:XXX(非中国质量新闻网)”的作品,均转载自其他媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。文章内容仅供参考。如因作品内容、版权和其他问题需要同本网联系的,请直接点击《新闻稿件修改申请表》表格填写修改内容(所有选项均为必填),然后发邮件至 lxwm@cqn.com.cn,以便本网尽快处理。

图片新闻
  • 机油液位上升、加注口变“奶盖”不要 ...

  • 安全的召回与召回的安全

  • 广汽本田2019年超额完成目标,体 ...

  • 自研自造铸市场底力 威马为新势力唯 ...

  • 中国汽车文化的先驱 奥迪第三次华丽 ...

最新新闻