ニュージーランド
日本語(にほんご)
共有

脸书(Facebook)回应为何没能检测到枪击直播

新西兰著者: Whitley.Wei
脸书(Facebook)回应为何没能检测到枪击直播
概要Facebook回答了有关为什么他们的人工智能系统没有检测到基督城枪击案的直播的问题。他们承认虽然最近几年人工智能系统不断的进步,但仍存在漏洞。

后花园3月22日援引News Hub报道:

Facebook回答了有关为什么他们的人工智能系统没有检测到基督城枪击案的直播的问题。虽然最近几年人工智能系统不断的进步,但仍存在漏洞。一份新闻稿称:“人工智能系统不是完美的。人工智能系统基于‘模拟数据’,这意味着你需要成千上万的案例以便训练系统可以检测某些类型的文本、图像或者视频。”

这家社交媒体巨头解释说,虽然人工智能系统善于识别裸体、恐怖主义宣传和暴力图片,但他们的系统却没有接受过类似于上周五枪击案直播的训练。

“为了实现这一目标,我们需要为我们的系统提供大量的有关这类特定内容的数据,这很难实现,因为这些事件很少见。另一个挑战是自动从视觉上相似,但却无害的内容中辨别出这些有害内容。”

他们解释说,如果来自游戏直播的数千个视频被标记,他们的用户可能会错过重要的视频。

“人工智能是我们平台打击恐怖主义的一个很重要的部分,虽然它的有效性在不断提高,但它永远不会是完美的。”

脸书1

脸书称有200人在直播期间观看了视频,但没有一个人举报。“这非常重要,因为我们会对直播中的举报优先审核。我们这样做是为了尽可能的减小一些有害视频对公众的伤害。”

第一个用户举报是在直播开始后的29分钟以后(直播结束后的12分钟)。

关于自杀的举报在公司的系统中是会被加速处理的,但由于没有人以这个分类进行举报,所以这个视频是经过正常程序处理的。“作为一个教训,我们正在重新测试我们的直播系统,并且增加对举报类别的分类。”

公司表示,技术分析部门将会继续雇用安保团队来监控人工智能遗漏的部分,目前他们有30,000名员工。公司还表示,媒体组织谴责直播传播了该视频,但是该视频也已经进入了电视频道和新闻网站。直播视频只有200人左右观看,另外还有4000人在删除之前观看了回放。

【部分内容编译自News Hub】

原文链接:https://www.newshub.co.nz/home/new-zealand/2019/03/ai-technology-is-not-perfect-facebook-answers-why-it-didn-t-detect-shooting-video.html


网站声明原创声明: 本文系文章顶部作者原创采写,未获书面授权严禁转载! 在获授权前提下,转载必须在醒目位置注明本文出处和具体网页链接。对未注明而擅自转载者,将保留追究法律责任的权利。 评论规范: 1. 所有评论均以读者个人身份发表,并不代表后花园立场。 2. 不得使用任何肮脏和亵渎的措辞。 3. 不得进行人身攻击,不得公开或泄露他人隐私。 4. 不得发布侮辱或歧视任何种族、国籍、性别、地域、年龄、职业等方面的言论。 5. 不得在读者评论区散发广告讯息,不得大量转抄其他媒体的文章。 6. 不得煽动仇恨、暴力、歧视。 7. 不得以任何隐晦方式发布上述不当言论,包括但不限于使用字母、数字、代号、谐音、链接跳转等。 8. 后花园保留对违反上述规范的留言行为进一步处理的权力。