内容审核员,不止鉴黄

“ 每天你都会看到有人砍人,或者射杀亲友……”

“ 黄赌毒必然要处理,色情也是大头,比如说一个不到10岁的女孩子拍了一个很普通的跳舞视频,她收到几十条性骚扰的私信消息,有些本身就是恋童癖……”

以上这些,只是网络内容审核员对自己工作内容叙述中的一部分。

为什么开篇就说这个呢,是因为狐妹前不久看到一条新闻。

脸书的内容审核员因为在工作的时候看了太多儿童性侵和恐怖主义的图片,而产生了心理创伤。最后获得了 Facebook5200 万美元的赔款

也许有朋友不太理解内容审核员到底是做什么的,他们为什么会受到心理创伤。

那我们做一个稍微通俗易懂的类比,或许你听说过鉴黄师吗?

其实从某种程度上来说,之前网上热议的鉴黄师,应该也算是内容审核员工作审核内容中的一个部分吧。

大家在第一次听说过 “ 鉴黄师 ” 这个职业的时候,是不是以为他们上班就是坐在那里拿着高薪,正大光明的搞黄色?

但事实好像总是……跟我们想象中不太一样?

其实搜索鉴黄师这个关键字你就会发现很多新闻都有报道,几乎所有干这个的人都表示精神上承受的压力非常大。

而内容审查员所涉及到的内容,比鉴黄师更可怕。

所以狐妹今天想带大家一起了解一下什么是内容审核员他们所面对的世界是什么样子

之前我们写过一期关于微博涉黄的案例,在评论里有人表示这些像牛皮癣一样的黄暴违规信息让人看着非常心烦,所以老早就卸载了微博。

但说真的,就算是这样,我们每天在网上看到过的信息,基本上都是已经经过内容审核员过滤的了。

假如没有这个职业,那我们的互联网环境或许会变成充斥着色情、暴力、血腥内容的世界。

毕竟你根本不知道还有多少让人不适的东西,在你看到之前就被审核员们挡在了互联网世界的大门外。

所以大家能想象,被称为“ 网络清道夫 ” 、一整天的工作都在直面色情、血腥、恐怖主义画面内容审核员都承受了些什么吗?

可以说,“ 内容审核 ” 在全球范围内都不再是一个陌生的概念了。可以说,几乎每一个互联网公司,都需要内容审核员的存在。

去年四月的时候,因为播出低俗节目被约谈的快手紧急招聘了 3000 名内容审核员。除此之外,字节跳动、腾讯等每年也都在扩招大量的内容审核员。

而国外也不例外,之前就有报道称,Youtube 在 2017 年的时候就雇佣了 10000 名内容审核员,并下架了 15 万有关儿童猥亵的视频。

Facebook 的外包网络审查员也一度达到了 7500 名,用于审核那些带有仇恨歧视的言论

而随着审核员的需求越来越多,关于内容审核员患上心理创伤的报道也越来越多。

2018 年的时候,就有一部关于第三世界网络内容审核员的纪录片《 网络审核员( The Cleanser)》上映。

而今年,又有脸书的前审核员因为心理创伤而将公司告上法庭。这个问题,开始逐渐出现在大众视野,并得到重视。

内容审核员们之所以更容易患上应激性创伤等心理问题,工作内容的负能量爆棚其实是主要原因。

其实根据不同平台和不同公司的要求,审核员们的工作内容其实也不太一样。拿脸书为例,脸书的内容审查员主要是按工作内容分类。

“ 鉴黄 ” 组浏览裸体、色情内容;“ 反恐 ” 组观看斩首、电击虐待、汽车爆炸等视频;“ 自残 ” 组甚至偶尔还得盯着自杀视频直播。

有的审查员表示,自己观看暴力视频的次数多到,自己仅仅只是看一眼尸体身上的切口就可以判断是小刀割的还是大刀砍的。

不仅如此,根据他们的保密协定,内容审查员是不被允许和其他人讨论工作内容的。

这就意味着,哪怕自己已经有了严重的心理问题,他们也不被允许分享,这使得他们的孤独感与心理创伤剧增。

除了必须在工作中面对大量负能量以外,工作本身带来的压力也是一个很重要的原因。

狐妹在招聘网站输入 “ 内容审核” 这几个字,就能看见新浪、头条、抖音、360 等平台的招聘信息跳出来。

新浪的内容审核岗为例,4-8k 不等的工资,工作内容就是准确迅速处理各类违法信息,看着是不是还挺不错的。

但我们一般都知道,写在招聘启事里的信息呢,实际上福利一般没那么多,但是工作压力和要求是只会更高不会更低的

既然这里工作压力较大都给你标出来了,再加上夜班和周末值班……

因为互联网这一行业的特殊性,基本上是 24 小时都需要有内容审核员来进行审核的。

而这类内容审核岗基本上是轮班制,比如 360 的内容审核岗就是 12 小时轮值,做一休一。工作内容的要求呢大概是一天两万条,包括评论、头像、文章等内容。

其实这种压力扛一扛,也能扛过去。但你要知道啊,内容审核员在进行审核的时候,并不是像我们想象中的一样,觉得哪条和自己三观不符就把哪条删了。

每个平台呢,都是有自己的一套审核标准的。据说脸书就有一个 1400 多页的手册,用来当审核规则的标准。

但你想,每天要审核的信息数量非常大,而审核规则是难以清晰地界定出所有的情况的。而脸书的审核员们,却被要求审核的准确率达到百分之九十八

当连续几个月审核准确率不达标的时候,就会被辞退。

这从某种程度上来说,工作压力大也给内容审核员们带来了很大的精神压力。

那么有没有什么办法可以改善内容管理员的心理状态呢?

有人说,用机器 AI 代替人工来进行审核应该是可以的吧?确实,机器的确可以识别出一部分色情、暴力、血腥的内容,从而帮审核员们减轻一定的负担

但机器和算法并不能解决所有情况。不同的语境下有着不同的理解方式。

你看看,在那死板的算法下,本来多正常的一张图,也被搞得有些脸红心跳奇奇怪怪。

更何况,有时候你会在娱乐节目里发现色情内容,美食图片里看见血腥肉体。这些夹带私货的做法,往往很容易逃过机器 AI 的审查。

而这个时候,就还是少不了内容审查员的存在。

谷歌的研究团队曾经做过一项实验,在这项实验中对所有的视频进行灰度显示的处理。76 位审查员参与了这项实验,结果显示灰度显示模式确实能让审核员的情绪得到好转。

在不久的未来就可以通过技术干预的手段,缓解审查员们的心理压力。

这个职业几乎每天都在直面人性中最阴暗的那一面,他们承受着巨大的心理压力。崩溃、哭泣、麻木,甚至连自杀的都有。

有的人干了没多久辞职了,有的人是为了养家糊口才选择顶着压力做这个职业,还有的人觉得这是一份可以净化互联网环境的值得骄傲的工作。

但无论如何,是这些内容审查员帮我们过滤掉了那些人性中最黑暗的东西。我们之所以还能愉快的在网上冲浪,确实是多亏了他们的。

也希望在未来,内容审查员的心理健康,能得到互联网公司和大众更多的理解和重视吧。

发表评论

邮箱地址不会被公开。 必填项已用*标注