Instagram正采用AI对抗网络欺凌行为

2018-10-14 17:59:59爱云资讯阅读量:961

随着智能手机等联网设备逐渐普遍化,网络已成为现代生活不可或缺的一部分,然而伴随而来的网络暴力更是四处泛滥。网络暴力是一类在网络上发表具有伤害性、侮辱性和煽动性的言语、图片、视频的行为现象,被称之为“无形的杀手”,近年来导致自杀抑郁等心理摧残的网络暴力事件层出不穷。

面对泛滥的网络暴力,Instagram正在采取行动反对其平台上的欺凌行为。去年,Instagram推出了一个增强版的评论过滤器,该过滤器通过机器学习,能够发现具有网络暴力性质的关键词和语言。

随着公众对Facebook的信任度下降,Instagram仍然是该公司产品阵容的亮点,而且它还有可能被Facebook破坏的丑闻所波及。在这种情况下,使用人工智能来帮助清除令人反感的内容,并让Instagram成为一个拥有良好氛围的家园是非常重要的。

现在,该公司正在扩大有关照片和字幕类似筛查的覆盖范围。最近,Instagram宣布它将使用AI“主动检测欺凌性言语”,这是一种机器学习工具,用于检测照片和字幕中的欺凌行为。如果人工智能工具认为照片不合适或不受欢迎,它会发送给Instagram社区运营团队进行进一步审核然后再将内容发送给人工审查。

去年在Wired发表的一篇报道解释了Instagram的机器学习评论过滤器的一些细节,并确定这种技术不适用于内容审核。大规模部署人工智能成本较低,但它仍然无法处理人类背景之下的细微差别,这就是为什么这些新的欺凌过滤器还需要向人工筛检人员发送内容以执行最终检查,没有监督的自动化是一种灾难。

这个名为DeepText的系统基于人工智能系统和word embeddings的概念,旨在于模仿人类语言的理解方式。当系统解释一个单词时,它会尝试以人脑识别单词的方式,并结合语境来确定其含义。DeepText作为内部工具构建的,可以让Facebook工程师快速分类大量文本,创建分类规则,然后构建产品用以帮助用户。

据Instagram发言人称,人工智能工具会检测字幕和评论中的欺凌行为,例如攻击某人的外表或幸福。它还对图像和字幕进行比较,排名和评级,以便在照片中发现欺凌行为,例如分屏图像中某人的恶意比较。

并且Instagram还为直播视频推出了欺凌评论过滤器。过滤器可以在直播期间检测并阻止令人反感的单词。Instagram已于5月推出了过滤器,用于Feed,Explore和Profile中的照片和视频评论过滤。

Instagram表示,人工智能系统不只是分析照片标题来识别欺凌,还有照片本身。在向The Verge发表讲话时,一位发言人举例说明,人工智能正在寻找分屏图像作为潜在欺凌的例子,因为一个人可能会与另一个人进行负面比较。人工智能将寻找的其他因素尚不清楚,但这可能是一个好主意,当Facebook宣布它将使用人工智能时,人们就立即开始考虑如何应对这些过滤器了。

Facebook和Twitter也推出了类似的举措来限制其平台上的欺凌行为。Twitter在去年十月制定了一个时间表,以便从其平台中删除裸露和仇恨图像等内容。本月早些时候,Facebook添加了一些工具,允许用户一次隐藏或删除多条评论,并允许用户代表朋友或家人报告欺凌或骚扰。

除了新的过滤器,Instagram还推出了“善意的相机效果”,这听起来像是一种传播积极信息并能提高用户参与度的方法。使用后置摄像头时,效果会在屏幕上显示“多种语言的亲切评论”;切换到前置摄像头,你会得到一丝闪亮的心和礼貌的鼓励来“标记你想要的朋友”。

网络是把锋利的双刃剑,当我们利用网络拉近世界各地之间距离的同时,不也能忽视网络“喷子”、“键盘手”的危害,这次instagram所做举动,是否能为现今鱼龙混杂的网络环境带来一股清流,是值得我们期待的。

相关文章

人工智能技术

更多>>

人工智能公司

更多>>

人工智能硬件

更多>>

人工智能产业

更多>>
关于我们|联系我们|免责声明|会展频道

冀ICP备2022007386号-1 冀公网安备 13108202000871号

爱云资讯 Copyright©2018-2024