脸书(Facebook)回应为何没能检测到枪击直播
后花园3月22日援引News Hub报道:
Facebook回答了有关为什么他们的人工智能系统没有检测到基督城枪击案的直播的问题。虽然最近几年人工智能系统不断的进步,但仍存在漏洞。一份新闻稿称:“人工智能系统不是完美的。人工智能系统基于‘模拟数据’,这意味着你需要成千上万的案例以便训练系统可以检测某些类型的文本、图像或者视频。”
这家社交媒体巨头解释说,虽然人工智能系统善于识别裸体、恐怖主义宣传和暴力图片,但他们的系统却没有接受过类似于上周五枪击案直播的训练。
“为了实现这一目标,我们需要为我们的系统提供大量的有关这类特定内容的数据,这很难实现,因为这些事件很少见。另一个挑战是自动从视觉上相似,但却无害的内容中辨别出这些有害内容。”
他们解释说,如果来自游戏直播的数千个视频被标记,他们的用户可能会错过重要的视频。
“人工智能是我们平台打击恐怖主义的一个很重要的部分,虽然它的有效性在不断提高,但它永远不会是完美的。”
脸书称有200人在直播期间观看了视频,但没有一个人举报。“这非常重要,因为我们会对直播中的举报优先审核。我们这样做是为了尽可能的减小一些有害视频对公众的伤害。”
第一个用户举报是在直播开始后的29分钟以后(直播结束后的12分钟)。
关于自杀的举报在公司的系统中是会被加速处理的,但由于没有人以这个分类进行举报,所以这个视频是经过正常程序处理的。“作为一个教训,我们正在重新测试我们的直播系统,并且增加对举报类别的分类。”
公司表示,技术分析部门将会继续雇用安保团队来监控人工智能遗漏的部分,目前他们有30,000名员工。公司还表示,媒体组织谴责直播传播了该视频,但是该视频也已经进入了电视频道和新闻网站。直播视频只有200人左右观看,另外还有4000人在删除之前观看了回放。
【部分内容编译自News Hub】
原文链接:https://www.newshub.co.nz/home/new-zealand/2019/03/ai-technology-is-not-perfect-facebook-answers-why-it-didn-t-detect-shooting-video.html