中国邮箱网讯 12月13日消息,据华尔街日报报道,为了阻止前男友/女友上传发布你的裸照,Facebook推出了一项实验中的功能,但你首先要与Facebook分享自己的裸照,而且它会安排真人检查这些照片。从这可以看出科技公司们所宣称的视觉算法和人工智能仍然存在许多局限——它们还不能离开人类的帮助。
如果没有人类的帮助,Facebook的这项功能很容易就会让许多无辜的图像遭殃。事实证明,人工智能(AI)很难分辨出你的裸体和大画家提香(Titian)的裸体作品。互联网巨头们吹捧称,他们希望自己的AI算法尽可能的人性化,同时尽可能移除人类的影响。然而,在过去的一年里,人们越来越明显地看到,在“回路”中没有人类的情况下建立的系统,可能会导致灾难性的后果,因为真正的人类大脑会想出如何利用它们。
无论是为了在围棋中赢得比赛,还是在俄罗斯影响美国大选的行动中保持警惕,最好的AI支持系统都需要人类在创造、训练以及操作它们时发挥积极作用。这种组合非但不会取代工人,而且每天都在催生新的非工程师岗位。还有证据表明,在可预见的未来,这种繁荣将继续持续下去。
当然,Facebook现在是这一趋势的主要例子。首席执行官马克·扎克伯格(Mark Zuckerberg)说,该公司最近宣布将增加1万名内容审核人员,使总人数增至2万人,这将影响其未来的盈利能力。而Facebook并不孤单。Alphabet子公司谷歌长期以来在AI领域坚持人类干预,以消除违反其服务条款的广告,搜出假新闻,并删除YouTube上的极端主义视频。谷歌没有透露有多少人参与了内容审核、搜索优化和其他算法,但公司发言人说这个数字是数以千计,而且还在增长。
Twitter有自己的团队来审核内容,尽管该公司在很大程度上对其如何实现这一目标保持沉默,而不是吹嘘其系统自动删除95%的恐怖分子账户的能力。纽约大学斯特恩商学院教授帕诺斯·伊佩罗提斯(Panos Ipeirotis)说,几乎所有使用AI来自动化流程的大公司都需要人类监督AI。美国五大金融机构聘请非工程师团队作为他们AI系统的一部分。
AI对人类大脑的持续渴求是基于我们对服务日益增长的需求。我们要求的越多,计算机算法提供完美答案的可能性就越小,而人与AI算法的组合显得更有效。伊佩罗提斯博士举例称,银行员工此前需要阅读每封电子邮件以寻找可以线索,现在他们可以更好地利用自己的时间调查AI标注出的可疑电子邮件。
为了教授它们相关知识,人类需要为这些系统提供例子,这需要大量数据。谷歌一名女发言人说,为了在YouTube上建立一个AI过滤器来识别极端主义内容,谷歌的人类员工需要手动审查超过100万个AI标注的视频。CrowdFlower公司首席执行官罗宾·鲍多利(Robin Bordoli)说,只有利用大量高品质数据进行训练,算法才能变得更好。CrowdFlower主要为那些需要人类为AI算法提供训练和维护的公司推荐人才,包括汽车制造商、互联网巨头以及金融机构等。
即使AI系统得到了训练,它的判断也不完美,仍然需要人类的监督,尤其是在那些内容重要的材料上,比如那些极端主义的YouTube帖子。谷歌表示,虽然AI可以标注83%的可疑内容,但剩下的17%依然需要人类识别。但这可以作为进一步的训练素材,这些数据可以被反馈到算法中来帮助改进它。
依赖AI可能会导致错误的结果,就像算法认为某些内容可能会引人不快,而导致公司撤下合法内容。在很多情况下,AI几乎无法完成一项任务,就像Facebook的裸照滤镜那样。英国牛津互联网研究所高级研究员维利·莱多维尔塔博士(Vili Lehdonvirta)表示,抄写收据和名片、标注视频以及调整成人内容都是“机器学习很容易做到的事情,但在实践中却不太容易”。
莱多维尔塔博士维持着在线劳动指数(Online Labor Index),这是对这些任务所雇佣的人数的实时估计。根据他的计算,在网络劳动力平台上发布的任务数量仅在去年一年就增长了40%。伊佩罗提斯博士说,处于被诈骗者控制风险中的系统也需要持续的人类关注。曾经受过训练的AI能带来很大帮助,但就像是获得祝福的同时也会带来诅咒那样,比算法更聪明的人可以轻易的骗过AI。
另一方面,虽然人类比AI的速度要慢,但可以根据很少的信息识别出模式。任何时候,当一个系统必须处理不好的行为时,必须有现场工作人员的帮助。其中有些工作是通过CrowdFlower和Mechanical Turk这样的外包系统完成的,亚马逊公司的系统将个人电脑微任务外包给全球50多万劳动力。
莱多维尔塔博士估计,在全球范围内,每周有1万到2万人在网上工作,包括在网络论坛上标记色情内容,教无人驾驶系统识别行人,并训练面部识别算法等。他说,当你参与到公司内部监督AI团队的时候,全世界可能有成千上万的人与你从事相同的工作。
文章来源:网易科技