净网特工

HD

主演:汉斯·布洛克

类型:电影地区:美国语言:英语年份:2018

 无尽

缺集或无法播,更换其他线路.

 剧照

净网特工 剧照 NO.1净网特工 剧照 NO.2净网特工 剧照 NO.3净网特工 剧照 NO.4净网特工 剧照 NO.5净网特工 剧照 NO.6净网特工 剧照 NO.13净网特工 剧照 NO.14净网特工 剧照 NO.15净网特工 剧照 NO.16净网特工 剧照 NO.17净网特工 剧照 NO.18净网特工 剧照 NO.19净网特工 剧照 NO.20

 剧情介绍

净网特工电影免费高清在线观看全集。
从脸书公司的网站中,清除“不合时宜”内容的内容审查员,人称“清洁工”。本片首次独家披露网络审查作业的真实现状,描写社交媒体所存在的风险,还揭露了审查作业对“清洁工”造成精神创伤的事实,并聚焦世界各国日益高涨的言论自由论争。采访从脸书位于菲律宾的“清洁工”工作据点开始。被聘用的多为会多国语言的学生精英。他们以秒为单位,审查世界各国用户发布的数以亿计的图片视频,删除色情、暴力内容的帖子。有时也会误删一些具表现性、新闻性、艺术性的内容。他们被严禁向家人透露工作内容。社交媒体的发布者和管理者,大半是业余人士,由用户生成的内容,使得平台异常脆弱,存在很大风险。必须针对不同文化、宗教、价值观以及时代等要素,做出不同对应。与此同时,审查被认为是“威胁表达自由”,“导致政治迫害”,对各大社交网络服务平台的批评,也在日渐高涨。本片潜入互联网的阴暗幕后,曝光秘密的数字保洁业的内幕,揭示是谁在控制我们的所见所闻和所思所想。夜幕会降临至死不渝叶问4:完结篇(粤语)G杀娃娃奇缘人类清除计划第二季真假僵尸飞虎队大营救你在找我吗?汉娜姐妹英语狄金森第二季鹰爪铁布衫光·渊禁忌游戏之迷藏听见我的旅行风柜来的人男神时代2015茜茜公主3红姐2017无发无天1992大电影2.0:两个傻瓜的荒唐事给你我的独家宠爱第二季东北插班生2017心动1986国足看少年下克上考试司祭office有鬼 国语名侦探柯南:沉默的十五分钟圣诞夜惊魂(普通话)放牧天空结婚才可以雌雄大盗1967国语绝地营救特沃塔和我白天的澡堂酒二的梦魇黑爵士一世敌后武工队情怨2穿比基尼的外星人玩乐名单

 长篇影评

 1 ) 我发在网上的大尺度图片,原来是他们删的

我们还上不了脸书呢

上周,我找到了一张《感官世界》的稀有海报,想把它发布在微博上。

可是,怎么都发布不出来,关键是这张图片并没有露点。

既然不能在微博上发布,那我是不打算在文章里贴出这张海报了。

你们也别去豆瓣上找了,没有,我也没有上传的计划。

当然,写这些不是为了显摆我发掘海报的能力。

我是对于微博上对于图片是如何审核的机制比较好奇。

大家应该有过这种经验,发布在微博上、豆瓣上、B站上、百度贴吧上的内容被删的情况。

不管是因为人工审查,亦或是因为别人举报。

困惑、震惊、愤怒,“为什么删我的东西,我发的内容没什么违规啊”,这应该是大家的第一反应。

我除了好奇这些审查机制外,更好奇这些机制背后的人。

也就是这些网络审查员。

《网络审查员》

先把时针拨回到2013年3月23日,在脸书上有一条视频,视频的内容是关于儿童性暴力。

在视频下架之前,它已经有了超过4000次的分享,以及数不清的评论。

这条视频引起了导演汉斯·布洛克和莫里茨·赖斯维克的关注。

为什么这种事情会发生?为什么这些网站没有及时地进行处理?

这个就是《网络审查员》的缘起。

01

这是一群隐形的人

菲律宾,马尼拉,一间办公室。

经常传出“忽略”、“忽略”、“删除”、“删除”的声音。

坐在电脑前的人目不转睛地盯着屏幕上频频闪过的图片、视频。

这些图片与视频包含着大量暴力、血腥、色情的讯息。

他们就是谷歌、推特、脸书等社交媒体雇佣的网络审查员。

上面就是这些网络审查员的日常工作。

他们的工作不能对外讲,甚至连工作本身都是秘密。

他们看似是为互联网三巨头工作,实际上,他们所在的公司只是外包公司,他们的工资也是由外包公司来发。

每天有2万5千个指标,意思就是他们要删除2万5千条不良信息,每一天。

想想一下让一个普通人每天看虐杀、色情、暴力,他会变成什么样。

但是这些审查员必须要看,因为这是他们每月的KPI指标。

他们可以选择跳过一些引起他们不适的视频,如果被发现业务评分就会扣分,他们每个月只有三次的机会。

他们家境的贫穷也不允许他们放弃工作的机会。

要么读书,要么捡垃圾,对于来自社会贫困阶层的他们而言,选择就是如此残酷、简单。

每天都要穿过垃圾山、趟过垃圾海去上班,他们有一家子要养,他们必须珍惜工作的机会。

她,在审查期间看过一个儿童性暴力的视频,让她震惊不已。

她很痛苦,但却不能辞职,因为她签了约,只能硬着头皮接着干。

虽然杜特尔特政府宣称,从2018到2022年,菲律宾经济规模要扩大50%,并要迈入中高等收入国家的行列,但是菲律宾的贫富差距依然悬殊。

富人吃肉,穷人吃土。

这些来此贫困村庄的审查员们,咬着牙也想挺过来。

有些情况,并不是咬牙挺一挺就能解决的。

其实几年前,我就看过一篇关于推特公司审查员心理健康问题的外文文章。

文章就讲,这些审查员工作了几个月之后,都要接受心理辅导。

就像片中出境的几位工作人员。

在直面人性丑恶之后,他们的心理健康状况都很糟糕。

她,每天都要接触大量的色情视频。为了判断一个视频是忽略还是删除,她必须了解各种性方面的术语。

她在家看了大量的A片,还经常去逛性用品店,每晚都会做各种丁丁的梦。

用她的话讲,既有罪恶感,也有羞羞的快感,甚至还看上了瘾。

一个清纯少女就这样变成了一个老司机。

她这种情况还算轻的。

他,看过几百遍斩首视频。

次数多到,仅仅凭着尸体身上的切口,他就知道尸体是用小刀割的,还是大刀砍的。

麻木,看到了麻木。

当麻木累积到阈值的时候,就是他们崩溃的时候。

片中一位审查员,生前是负责审查自残视频,看过了数不清的自虐视频后,在家上吊自杀了。

没有人关心他们的心理健康。

02

审查的标准是什么

关于网络内容的审查本身就是一个悖论,如何在追求言论自由的前提下,又能保证言论的自由不会危及到我们自身。

这世界上没有一个人不想追求言论自由,但是要付出的代价呢,怎么办?

单单靠我们自身的批判性思维,举世浑浊唯我独清,众人皆醉唯我独醒?

戴维·凯伊,联合国言论自由特别报告员是这么说的。

他觉得对于言论自由设限,会导致民众获得越来越少的信息,以至于尖锐意见会从网络上销声匿迹。

那为什么现在网络暴力越来越严重,互相仇视的情绪越来越高涨。

这问题到底是出在谁的身上,真的是这些社交平台监管不力,是我们被这些社交平台诱导?

答案是非常复杂的。

对么?对,但是这个对也有预设条件。

什么问题都不可能只有A与B两个面,我们也不能也二元论来看待问题。

一个平台该如何判断该如何审查一张图片、一段视频。

一个平台认为是危险的消息,在另一个平台可能认为其具有新闻价值。

黄安娜,前谷歌/推特法律负责人举了一个例子。

萨达姆在被处决的时候,有人把视频发到了油管上,网上一共有两段视频,一段是萨达姆被处以绞刑的视频,一段是萨达姆的尸体。

这样一来,就要决定到底是该留哪一段视频,他们最后选择了萨达姆被绞刑的视频,因为这段视频具有历史价值。

而这样就带来一个问题,如果审查员不知道图片、视频的背景信息,该如何决定是该忽略还是删除。

审查员因为不知道背景消息误删的情况,也很常见。

不仅仅是这样,每个平台都要自己的标准。

像下面这张越战的著名照片。

它就因为涉及了未成年裸露而不符合规定。

对于这些审查员来说,最严重的的失误,就是疏漏裸体内容。

03

到底为谁所用

就算一个审查员每天能处理25万条违规信息,但是每天脸书、推特上还是会有海量的信息流出现。

再说,不论是人工智能识别还是人工识别,这种机制都是被动的。

社交媒体是带来了恶,还是引爆了恶?

每个人使用社交平台的目的各不相同。

美国艺术家伊尔玛·戈尔画过一张特朗普的裸体画,并把它放在了自己的脸书上。

引发了网络上的广泛讨论。

甚至特朗普本人都在白宫发言的时候,都讨论过自己的尺寸没有那么小。

现在的社交媒体已经可以强大到可以干预到国家领导人的发言。

NGO的成员,会在网络上收集视频,在视频被删除之前,先把视频保存下来。

对于他们来说,存档非常重要。

他们把这些视频收集起来后,发布在油管上。

他们用这方式记录战争,以此来让人了解战争的残酷,从而达到反战的目的。

来自叙利亚的艺术家,会把自己的创作放在脸书上,表达自己的政治观点。

美国右翼活动家,在社交平台上发表对于难民问题的观点,一口一个绿绿、臭大粪。

也会在游行示威上做直播,表达自己对于左派的不懈。

现在的言论自由已经被曲解了,人人都相信自己认为的真相。

就像片中提到的,自从特朗普上台以后,美国政治两极化日趋严重,左派与右派都不愿意对话。

这么一来,罪魁祸首就是脸书?是脸书有意识地发挥了推波助澜的作用?

没人能够回答。

最后就用脸书创始人扎克伯格在一次发布会上说过的一段话做结吧。

选择希望、克服恐惧,需要有勇气。

说我们能做出前所未有更好的东西。

要想改变世界必须保持乐观。

每一次我们连接网络、每一次创新,日复一日前进一小步。

所以我认为我们的共同努力比任何时候都重要。

- FIN -

公众号:小鲜电影(xiaoxianmovie)

 2 ) The cleaners 台词摘录

delete... ignore...

That's the two actions that a content moderator does every day.

"I protect the user who uses the app", said one of the moderators, as the president tried to protect his people by killing all the criminals.

"One of the misconceptions is that human nature is human nature, and then technologies are just useful tools: it's not amplifying anything - but this is not true, because technology does have a bias, and that bias has a goal, it's actually seeking a goal, it's the goal it's seeking that what will get the most number of people's attention, what tends to work on billions of people that's successfully attracting their attention out of that, and keep it; and not just getting their attention but getting them to share things, and so it turns out that our rage is actually good at doing so"(Cleaners, 2018, 1h6m).

“I sacrifice myself, yes, there will always be sacrifices, it will always be a part of life... it's my job to prevent the sinful images, I'm a preventer“(1h21m)

 3 ) 【转载】信息“擦洗工”、事实核查员……那些卡在人工与智能夹缝的新兴传媒人

原作者 全媒派 2018-10-24 仅供学习交流

信息“擦洗工”、事实核查员……那些卡在人工与智能夹缝的新兴传媒人 qq.com

9月,加州女子Selena Scola一纸诉状把Facebook告上了法庭——因为看了过多暴力、血腥和色情图片,她患上了PTSD(创伤后应激障碍)。Selena是Facebook合作的第三方Pro Unlimited的内容审核员,负责删除Facebook上“剧毒、不安全、有害的内容”,包括色情、暴力、仇恨言论等。

对于PTSD,维基百科的解释是“指人在经历过性侵犯、战争、交通事故等创伤事件后产生的精神疾病”,常见于遭受重大打击后导致的精神创伤。然而,在互联网时代,没有性侵,也没有战争和交通事故,因视听感官长时间遭受刺激产生的伤害,不亚于物理刺激造成的精神损害。

新技术带来了繁荣的互联网产业,随之也诞生了新工种,内容审查员是其中的代表之一,除此外,还有事实核查员、论坛版主、合作伙伴经理等,他们的生存与困境成为了网络时代的缩影。

内容审查员与PTSD:隐匿的信息“擦洗工”,无处安放的焦躁

社交网络上,一头是梦想家用技术缔造的开放盛世——用网络建设一个连接世界的地球村,另一头的人躲在盛世的影子里,把好最后一道关卡——鉴定并删除变态的视频,这一点,人力比机器做得好多了,至少在当下是如此。

或者更早以前的论坛时代,版主们也担任着这个角色,但他们的规模和工作量远不如社交网络时代。据报道,仅Facebook一家,内容审查员的数量就达到了7500人。这些人甚至不是Facebook的员工,只是被第三方雇佣来的廉价劳动力。

2014年,《连线》杂志发表了一篇调查报道《社交网站上不为人知的隐匿职业:信息“擦洗工”》。担任“擦洗工”的廉价劳动力多分布在东南亚,他们可以拿着“美国水平”的工资,代价是“直面人性的恶”。

YouTube在美国本土雇佣的审查员要求更高,需要对东南亚员工审核过的视频进行二次过滤,公司许以YouTube的工作场所、办公福利等条件,甚至承诺转正机会,Facebook条件也是如此。

事实上,这些审查项目几乎是秘密进行,科技公司和外包员工、第三方签订保密协议,不允许他们向外透露任何审查细节,Facebook把这个秘密项目起名为honeybadger(蜜獾)。在此次起诉事件中,Selena暂时无法提供更多工作细节,她担心一旦违反保密协定,会遭到报复。

纪录片《信息擦洗工》海报(2018.5)

在Selena的起诉声明中,她提到Facebook和第三方公司都不曾提供心理干预以保证审查员的精神健康。但即便提供了心理医生,内容审查员也不知道如何开口讲述自己的经历。据《连线》杂志报道,YouTube审查员Rob说,YouTube给擦洗工们雇了心理咨询师,理论上谁都可以和他们谈心,但Rob不知道如何接近他们。据他所知,也没有谁去找过咨询师。所以他只能靠自我调节——喝酒喝得越来越多,身材也越来越胖。

而创伤之后,审查员们可能产生一辈子的心理阴影。Selena的起诉文件里写道:“她的PTSD症状可能会因为碰到鼠标发作,也可能是因为走进了一栋冷冰冰的大厦、在电视上看到一段暴力视频、听到吵闹的声音,又或者,是因为受到一点惊吓。”

如果要真正解决审查员们的心理问题,或许还是应该回归技术,比如提高人工智能的识别能力和审查效率。但目前看来,开放的网络世界背后,还有如此多阴暗和不堪,扎克伯格与科技巨头们在人工智能审查上所做的努力还远远不够。

Reddit版主:用爱发电,无薪且糟心的职位

Reddit,一家月活达到3亿的神奇网站。界面设计极其Old School,但因为许多细分、有趣的小组吸引了一个又一个小圈层爱好者。

相比于Facebook内容审查员的隐秘身份,Reddit版主似乎更为人熟知一些,他们有自己的账号,有删帖和禁言的权利,小组用户可以直接和版主沟通。不同的是,在Reddit上当版主没有薪水,全靠志愿者们用爱发电,他们也一样要遭受种族主义、性别歧视、水贴刷屏等垃圾内容的精神侵害,甚至是被用户直接攻击。

全媒派在《 不抬杠是不可能的!有人用五年筛出了60万优质杠精 qq.com》提到一个小组changemyview,该小组为了建立一个理性讨论的优质社区,启用了22个志愿者作为版主,24小时巡视新鲜发帖,如有不当,则会沟通或删除。

其它小组的版主工作模式也是如此,但生存条件可能更艰难一些,至少,版主人数达不到22个之多。而被审核的小组用户们可没有那么开心,极端的人,给版主们发去一条又一条的辱骂和威胁信息。

在Engaget和 Point发起的联合报道中,他们找到了10个Reddit版主。版主们管理着大大小小的小组,最大的达1600多万订阅者。但无论小组大小,他们的困境都是相似的,被辱骂、攻击、人肉、诅咒甚至死亡威胁,而Reddit官方,一次又一次忽略了版主们提交的被攻击报告。

版主Emily管理着“伦敦”小组和“新闻”小组,为了避免极端报复,她从来不暴露自己的性别,以免有人威胁“强奸她”。还有一些攻击和威胁,描述得具象又恐怖,让人光看文字就会起一身鸡皮疙瘩。

牛津大学实验心理学副教授Lucy Bowes认为,长时间的版主工作必然导致抑郁症、PTSD和焦虑症等精神疾病,工作时间越长,患病危险越高。

对于Reddit这样的社区来说,技术监管和人力监管不到位,内容过于野生是一大原因。但与此同时,注册机制过于松散,导致恶意账号删不尽,喷子们随便用一个邮箱又可以注册回归。即便是禁言72小时,用户被解禁后还是会继续攻击。

而Lucy认为,对于Reddit这样体量的公司而言,要解决版主们的问题,应该从公司自身入手,比如对新版主进行培训,加强汇报反应机制的建设,或是截屏留取证据,以确保未来起诉。另一方面,对于这些志愿者,Reddit也应该随时关注他们的心理健康,及时进行干预和治疗。

尽管体量大,提供咨询的话会增加不少成本,但对于一个依靠一个个小组支撑起来的庞大社区而言,这些愿意资源维持社区秩序的人才是Reddit的财富。

事实核查员:真相的代价

在巴西,一份299页的文件在WhatsApp的右翼群里疯转,里面有40名事实核查员的社交媒体详细资料。巴西网友视奸他们所有人的账号:看,这是他2011年发的贴,他就是一个左派分子。

这一切,只是源自于事实核查组织Agência Lupa和Aos Fatos在今年5月宣布的计划:与Facebook合作,做好今年10月的总统大选辟谣工作。事实核查员们将手动辨别信息流中的假新闻,并打上“Fake”标识,将假消息的影响力降低80%。

但打击也由此开始。

先是大V和右翼媒体发文指责,事实核查员的工作是做“信息审查”,后又有人画了幅漫画,把事实核查员画成了投资人乔治·索罗斯的宠物,在WhatsApp门口巡视。

接下来是死亡威胁。有人给Lupa的总监Tardáguila发信息“你看不到巴西的下一任总统”、“我们会挨个来收拾你”……

这并非孤例。事实上,同Facebook合作的34个事实核查组织都受到了网络谩骂、人肉等威胁,这对他们的工作造成了很大困难,尤其在媒体信任度本就不高的国家。

事实核查的进展并没有那么顺利,一是利益相关方和一些网民在疯狂打击,二是在Facebook方面,他们并没有对这34个事实核查项目投入足够的资源,甚至在态度上都不够强硬和坚定。

在巴西,Facebook从未就此次事实核查项目召开新闻发布会,反复要求的热线和邮件也迟迟没有开通,唯一有的,只是在今年5月发布了两条博文,一是承认网络暴力确有其事并谴责有关行为,二是宣布和巴西、墨西哥和哥伦比亚的事实核查项目的合作。

在Tardáguila看来,Facebook需要明白,这是他们的项目,公司必须要发声,“我们努力了三年,没有任何改变,这些改变必须由Facebook来承担”。为此,她也提出了一些切实可行的合作条例:

关于需要被核查的内容,平台需要更好地翻译相关通知。

Facebook方开通热线或邮件地址,用户和媒体可以询问事实核查项目的相关问题。

在每个国家建立和事实核查员的主要沟通渠道。

对Facebook的事实检查项目运作流程进行可视化,翻译至现有的合作国家。

定期与事实核查合作伙伴开会,了解项目进展情况。

合作伙伴经理:与170个编辑室共同产出

ProPublica在2016年推出了有史以来规模最大的新闻众包项目Electionland 2016,和全国大小媒体合作,以任务分派的形式合作完成大选报道。报道覆盖范围广,参与媒体多,资源利用率高。随后,ProPublica试着开了新的项目,也由此诞生了一个新的职位。

新项目名为Documenting Hate,一个追踪和报道仇恨犯罪和偏见事件的调查项目。新的职业则是合作伙伴经理(partner manager),目前由记者Rachel Glickhouse担任。她像一个统筹者,同时担任记者、编辑、研究员、社交媒体制片人、招聘、培训和项目经理。

Documenting Hate官方网站

通过合作伙伴经理的努力,Documenting Hate项目和150家国家/本地媒体,以及20家高校媒体建立起合作关系。项目的关键在于资源共享和合作报道,ProPublica搜集到的仇恨事件案例和数据都被统一上传到官方数据库保管,并向加入的媒体开放使用,比如公众提供的线索和故事、警方的案卷信息,真正实现了资源上的共享和合作。

与此同时,合作伙伴经理也会担任起“空中管制调解员”的作用,确保不同记者不会在一个事件上耗费精力,或是针对不同当事人,指派合适的记者跟进。

虽然类似Documenting Hate这样的新闻众包项目有利于报道资源的合理分配,但合作伙伴经理也面临着不小的挑战。加入项目的记者可能无法彼此合作,也可能有等级倾轧,又或者,记者们对项目的热情有一定的周期性,有的可能无法长期为这个项目效力,而在一些特殊时期,参与者会少得可怜。

尽管如此,在Rachel看来,众包模式依然会是未来新闻的发展方向之一,在编辑室的时间和资金都非常稀缺的时代,有一个中心化的项目聚合资源并进行再分配,自然能极大程度上缓解编辑室所面临的尴尬。

互联网浪潮下诞生的新职位固然有其局限性和困境,但菲律宾事实核查项目Vera Files的联合创始人Chua认为,类似于事实核查员遭遇网络暴力的事件,Facebook固然有保护事实核查员的责任,但如果Facebook无法保护他们,那记者必须自我保护,“新闻业有风险,事实核查同样如此。”身为大时代下的小个体,我们能做的,不过是催促科技公司解决眼下的问题,让个人迅速跟上这滚滚向前的历史车轮。

【参考资料】

FB内容审查员患PTSD

//www.businessinsider.com/content-moderator-sues-facebook-ptsd-2018-9

社交网站上不为人知的隐匿职业:信息“擦洗工”-钛媒体官方网站 tmtpost.com

//www.theguardian.com/technology/2017/jan/11/microsoft-employees-child-abuse-lawsuit-ptsd

真相的代价:事实核查员遭到的威胁与攻击

//www.poynter.org/news/these-fact-checkers-were-attacked-online-after-partnering-facebook

Reddit讨论区审核管理员遭仇恨言论攻击

//www.engadget.com/2018/08/31/reddit-moderators-speak-out/

新闻业的最新职位 - 合作伙伴经理 -如何在ProPublica的新闻编辑室工作

http://www.niemanlab.org/2018/10/chasing-leads-and-herding-cats-how-journalisms-latest-job-title-partner-manager-works-in-propublicas-newsroom/

 4 ) 网络科技的光与影

#一百部纪录片计划#002《网络审查员》

几个事实:

1、网络世界,是一个虚拟世界,它并不是现实世界的本真反应,更像是一个基于现实世界某点的放大镜或者哈哈镜。网络平台,无论是社交媒体、视频网站或者搜索引擎呈现出的内容都是经过筛选和审查的。通过网络看到的世界,是带着滤镜或者有色眼镜看到的世界,但很多人以为现实就是如此,这是一种幻觉。

2、硅谷科技巨头,脸书、推特等,包括国内的字节所宣称的技术和算法中立,是一种谎言,因为这些平台的商业模式是广告模式,获取更多的用户、更多的转发和关注是他们的目的,这必然导致算法推荐带有诱导更多观看和分享的基因,刺激情绪的内容,加强极端言论的内容会有可能获得更多的推荐和传播,算法中立本身是不可能的,正如脸书的产品经理所说,脸书事实上对美国内部极端意见群体的对立冲突,起到了推波助澜的作用。

几点值得思考的问题:

1、如果网络反应的不是一个真实的世界,真实的世界,有善恶美丑,网络为了限制罪恶的扩散和影响,需要把色情、暴利、恐怖等内容进行审查删除。

那么如何界定内容的标准?艺术图片与色情图片、战争新闻与恐怖影像,邪教与神学……如果确定审查的标准与界线?

2、谁有权力制定审查的标准和界线?平台的审查标准和不同国家的法律标准是否足够公开透明?

3、执行审查工作的人的心理健康如何保护?

就如片中展示的,一个人每天2.5万张图片,几乎每个审查员每秒就要审查一张图片,其中会有大量传播色情、罪恶的内容,他们过量摄入了这些恶的东西,就像毒素一样侵入他们的大脑和心灵,冲击着他们对世界真善美的信念,有的人需要通过信仰上帝,用宗教来安慰自己的罪恶感,有的人变得麻木,有的人看了太多自残视频,过于悲伤,申请调岗而不得,最终抑郁自杀……

这些菲律宾的审查员为了相对当地较高一些的收入,以牺牲自我心灵为代价,在“保留、删除”的程序工作中异化自己、奴役自己,在自我美化、自我救赎和自我毁灭中挣扎,这是一份残酷的工作!

很有意味的一点在于,这种残酷的工作以第三方外包的形式存在于发展中国家,而硅谷只是宣称连接美好…就像一个事物的光与影,光辉留给了硅谷与科技创新者,暗影留给贫穷国家的打工者。

 5 ) 这个世界会好吗?

技术、媒介是中性的吗?傻子都知道不是。不然也不会有网瘾和杨永信了。

反过来看,而互联网曾经承诺的“连接每一个人”的乌托邦,在当今现实里的大图景到底是什么样子?

社交媒体,在总体上,是否将把我们的世界变得更好呢?

这几年对互联网和智能手机全球性地改变人的行为的嘲讽或自嘲也不少见了。

前不久又爆出脸书向剑桥分析泄露5000万用户而被用来操控选举的新闻。

上个月中下有哥本哈根纪录片电影节,偶然去看了这部 《清理者》The Cleaners。

片中播放了去年年末美国法庭关于 俄罗斯和2016年大选 Russia and 2016 Election Investigations 的调查。法官质疑,这三大公司的内容环境受到国际政治力量的左右,影响选民,以及被用来组织、散播、宣扬非人道的行动。唯唯诺诺中互联网公司的法律负责人(我不确定这里使用的名词是准确的)说到了自己外包了大量的员工来审核内容的事实。而脸书透露出,他们雇佣的审查者居然有数千人之众,而且未来还会继续增加人数。

——这些被雇佣的网管就是本片的主角,他们内部自称为“内容仲裁者”content moderator,所谓的“清理者”。这是一个驻扎在菲律宾马尼拉的公司,而他们的职业对于外界是一个秘密。

影片开始的时候,镜头在一间典型的现代白领办公室里,关着灯,只有一个人操作着一台亮着的电脑,并只能看到这个人面部的局部。背景音不断回放着,“删除”delete/“无视”ignore/“删除”delete/“无视”ignore……随后镜头跟随同一个主角描述ta夜晚上班的场景,穿过熙攘、喧闹、混杂的马尼拉的城市街道、高架桥,进入一栋漂亮的办公楼。在喧闹拥挤的亚洲城市里,做一项秘密却关乎数十亿人口的工作。这就是他们的工作内容,而操作看起来如此的简单,就是审核每天从全世界上传的上百亿的照片、图片,然后决定是要保留还是删除。

脸书内部关于上传信息内容规定的条例相当复杂,关于对暴力、色情的内容判定是否删除的规定,有一百多条。然而在去年被卫报曝出来以前鲜有人知。被采访者包括Google的负责人、工程师,面对镜头,检讨公司创始人们对中性技术的美好设想并没有尽到相关的责任;而另一方面也列出了关于支持自由者的质疑,包括一些内容被删的艺术家、摄影师。

“这些规定也让自由言论倡导者担忧。他们认为,Facebook可能已经成为了世界上最大的审查员,该事实敲响了言论自由的警钟。”

脸书提供的强大平台,涉及了一系列冲突明显的社会问题,包括美国内部的种族,西欧对移民的态度——到底是发泄不满,还是有组织的政治立场,这两者界限模糊。以ISIS为例的恐怖组织也在借脸书宣扬自己的。片中截取的片段。蛋最让我看不下去的是缅甸迫害罗兴亚人,一个母亲对着镜头哭诉自己的家庭怎样被迫害。——这种原本平缓融洽的文化混杂,被西方殖民者弄得互相仇视的例子早就不新鲜了。

传播能力的扩大,既然足够提供人与人的连接,也可以能让人与人更加分裂。爱是可以被传播的,那么仇恨也可以;敌意、仇视、偏见,技术本身不会过滤任何人人心里的东西。

回到清理者们,这项工作是否看起来十分简单?

然而,到目前为止机器/ AI还没有能力处理人类复杂的认知和表达。光是言论,根据不同的语境,是发泄情感还是表达真实意图都难以判断;再加上图像、视频中更加复杂微妙的视觉语言,机器对此无能为力。而这些内容仲裁者也有很大的负担:他们的神经每天要处理25000项图片或视频,而对每一张图片最多只有8秒钟做判断。这对大脑是巨大的负荷。

更糟糕的是,他们要经手的材料大多都是令人不适甚至不安的内容:色情、虐待、战争、恐怖组织的非人道行为——尽管在正式工作之前已经被训练去应对这些内容,但仍对他们的日常生活也造成困扰,也包括道德上的处境。

开头的场景展示了他们的两难处境,深处闹市,却做着全世界的网管,而工作内容也不能让身边的人知道——他们需要一个让自己心安理得的身份,当然也需要这份得体的薪水;他们不得不相信自己确实是在有尊严地维护秩序。很多人也因为上面这些原因放弃了这份工作。

技术到底带来了什么呢?纪录片的好处是,导演呈现给你的是各方视角和立场。这个问题暂且还不会有结论。

它是给我们所有人的问题。

片头片尾,截了两段扎克伯格对公众的演讲;看他如何表情坚定、豪迈地谈论脸书如何能够成就新的未来。

然后片尾字幕亮起,意味深长,留下片场一片唏嘘。

“太可怕了。太可怕了。”

我跟波兰的好朋友聊起感受,感觉出来的大概是对全球网络的这种无序状态和其无解的担忧。——就他所言,人们还是倾向于相信,世界是需要秩序的;但由谁来引导呢?现在的声音越来越多、越来越庞杂,到最后就是谁也不服谁。朋友说,这里为什么美国人会雇佣菲律宾人就很玩味了——菲律宾是个天主教国家,在价值观上跟西方基督教世界更相通。

技术悄然滋生的权力绕过了所有人的眼睛,但信息审查是真实存在的。(你看,我们的互联网环境在世界上也没有那么特殊嘛)

过去的“信息集权”提供了同一套世界的框架;哪怕你要质疑某个事实,要叫骂对着的也是同一个屏幕。而今天每个人都在自己的屏幕里接受现实,在传送到自己眼前的信息流里,营造自己世界的小泡泡——而且老一辈还带着上个时代的惯性:“那么多人都看了的信息,能不是真的吗?”。但外面还有个过滤的大泡泡呢。

信息是种权力无疑;我想对于很多人,这部片的隐喻是,我们以为今天的时代走向的是美丽新世界,其实背后并行着一个一九八四。——反正我对这种自由斗士的论调保持怀疑;有时不免有点“见到短袖子就想到裸体”的意思。

尼尔·波茨曼早在60年代就在《娱乐至死》里说过的话,到今天仍然适用:从有广播、新闻报纸、电视开始,这个世界的行动跟信息比率越来越小了,我们关注的大多跟自己眼前的事实、跟自己的生活无关。大多数事情不需要关注。而这个世界本身运行机制的复杂程度,远远超出一般普通人所能理解;这种理解也许是不必要的。 我们自己,是在为这个世界带来了更多的噪声,还是更多的秩序、平和呢?这个问题,互联网不会回答我们,技术也永远不会回答我们。

靠点击就能得来的东西并不真的属于我们自己。

这个世界会好的。不是因为技术,而是因为我们在把自己变好。

 6 ) 看到了审查员这样一群人

应该让世人知道,有审查员这样一群人在工作。他们依照规定审核发布的内容,确保社交媒体的安全。

Ignore, Delete, Ignore, Delete ...... 这便是审查员的日常。

应该让世人知道,有审查员这样一群人在工作。他们依照规定审核发布的内容,确保社交媒体的安全。

员工的角度

开篇从员工的角度开始,员工感觉这工作是网络世界的安保人员,维护网络世界里面的秩序,避免有害内容传播。

员工都在菲律宾的马尼拉,这些就业让很多人脱离了以捡垃圾为生的困境,担当起家庭开支的重任。

工作强度有多大,每天的指标是 2.5 万个审核。那些员工可能没有开玩笑,可能真的会破吉尼斯纪录。

员工接触的内容有些哪些?儿童性交,暴力血腥,污蔑政治等内容。这些内容慢慢侵蚀人的头脑,审查员的心智感觉迟早会出问题。

平台的角度

平台角度,什么是不合适的内容?很难筛选。因为即便是由人来筛选甄别,也很难做好,别说是程序了。但平台是一定要承担这份社会责任的,有义务维护平台上内容的健康性。

为维护的工作上,也很难做好。平台会针对性地删除和屏蔽一些内容。Facebook 听从土耳其政府的要求,删除政治性言论、图片和视频。这个维护是不是过头了?

有的视频并不违反社交媒体平台的规定,不属于删除对象,但在土耳其被定为违法视频。对于这种情况,社交媒体平台的解决方法是根据 IP 来屏蔽土耳其的用户。

平台让言论传播更快速,言论自由便有遇到对立观点的情况,现实情况是,情况没有因此而促进双方的理解,反而激发矛盾。这种事情也怪平台吗?但平台确实有责任遏制散播仇恨。

其他的角度

从媒体的角度来看,像叙利亚处于战争的国家,很多血腥的图片或者视频,想引发社会的关注,但是也会被审核删除。

审查员的身心健康

审查员每天都在看这些充满暴力、血腥、仇恨、色情的视频,他们的身心健康,公司会保障吗?如果审查员跳过这些视频,这与公司的制度相违背,会有扣减业务分数的惩罚。确实有出现过,部分审查员由于受到每天看的视频的影响,在家上吊自杀。

 短评

索爾仁尼琴說過“每個人有不知情的權利”,但是人又卻是好奇和獵奇。前幾年Dark Net第一季的其中一集就對網絡審查員有過展現。感覺這部紀錄片是擴展版,而且選取的事例頗具典型性。我依然覺得對於互聯網(尤其是移動互聯網)要採取謹慎甚至消極的態度。整個片最讓我印象深刻的是NGO組織對敘利亞內戰的社交網絡視頻爭分奪秒的保存。畢竟,很多視頻基於版權和審查已經無法被觀看,而本身又具備價值。其實,“知道太多”的審查員和違規視頻圖文資料庫同樣是個不穩定的危險因素。難道就不怕造反嗎?

9分钟前
  • 熊仔俠
  • 推荐

設計的場面和台詞過多,集中於弘大命題而遠離了作為網絡審查者的“人”。始終陷在一種美感過度的不適中。講演現場等視頻的活用很好。“被審查”的部分影像,那些自殺情色宗教與恐怖暴力,除了展示,真的沒有更好的方式了嗎?對影像資料的處理和使用,需要倫理上的再思考。JIFF0507M9

11分钟前
  • 看守煙霧的人
  • 还行

脸书YouTube推特上,内容合法不合法,是让一群外包的菲律宾人来审查。难怪影片中,故意让审查员看两张照片,一张是获普利策奖的越战照片《火从天降》,因为小女孩全身赤裸,被删;另一张,伊战美军虐囚事件,审查员看成了ISIS士兵在虐美军俘虏,被删。

16分钟前
  • bugz
  • 力荐

不涉及处在局域网的我们,主要介绍采访不存在的欧美几大上传类社交网站的图片视频的人工审查员,他们居然都是在菲律宾的当地人,每天面对两万多件的色情暴力政治战争等敏感信息。梦到大量不同男人生殖器的女基督徒,还有的看过上百段斩首的影像,在自残部门调离不成而自杀的员工,叙利亚老百姓拍摄的那些和isis的如何处理,开放网络后只识脸书的缅甸人被假消息散播利用挑起的大屠杀,最后现身的扎克伯格发布会好像把矛头直指大公司在建立自由之地的同时今后要怎么走向,穿插在美国被诉讼而改变准则的几次事件,对了解那些人背后的操作程序和世界阴暗面有不少直观的感受,联想在高墙之内被保护的这片土地更加唏嘘。

18分钟前
  • seabisuit
  • 推荐

清道夫不是人干的活。每天看各种黄色暴力血腥视频,有害身心。审查员有自杀的,也有宁愿回去捡垃圾,也不再看那些网络垃圾。

21分钟前
  • 伊壁鸠鲁
  • 推荐

一部上影节北影节选片首轮一定被毙的纪录片出现在即将被迫全面退票转为免费包场的西宁,来自一个全球最大的被清理者组成的国度。

24分钟前
  • 黑狗成
  • 推荐

这群为了网络的健康与和谐默默付出的人们,难以想象他们每天要面对多少充满血腥、暴力、色情以及政治恐怖的镜头。他们目睹过自杀,目睹过砍头,目睹过性侵,出现一点小小的纰漏都可能会造成死伤甚至战争,他们在不为人知的地方守护着世界的和平

29分钟前
  • greenjoker
  • 力荐

“Delete, delete... Ignore, ignore”,以网络世界不为人注意的审查过滤工作展开,用Google和FB做引子,到最后拉开成了对极右思潮的兴起、政治讽刺的界限还有中东和罗兴亚人的全面涉及,88分钟里满满的信息量和各种立场。勾勒了网络世界近年来除去深网、色情交易和信息安全之外最严峻的现状。无法想象各位清道夫需要在工作中承受多少压力与伤害,才能换得一份维持温饱的工作;女孩穿行于垃圾堆的画面映照,十分加分。

33分钟前
  • 基瑞尔
  • 推荐

引人深思。同样的内容在不同的语境下是不一样的,讽刺或者谴责是不是就可以?(实际工作中真的就遇到这样的情况啊)提供一个“干净”的环境是不是就不利于理性批判呢?非常不爽的是,这样一个“国际纪录片节”竟然放个样片给我看,中间字幕还因为剪辑版而字幕对应不上。

35分钟前
  • vivi
  • 推荐

特别严肃、深沉、拓展视野和引人熟思的一部纪录片。新网络时代社交媒体在左右我们的思维动向,可怕的是它利用我们的潜意识,就在我们毫无意识之间替我们决定了一切。而被牺牲的网络审查员,真的新时代最悲伤职业。

38分钟前
  • L.C.
  • 力荐

审查;还以为是日本人做的,原来是德国人;色情delete,战争暴行(宣传恐怖delete,反战ignore)但作为网络守望者的这部分菲律宾人不可能了解那个背景不好判断,忽略的害处:罗兴亚人的迫害,稀疏的言论自由:人里面不成熟、容易受恶影响的还是不少的,审查是一种偷懒的方式,人类就不用自己费劲去判断了,政治言论:油管的仅对该国ip屏蔽,也算厚道,那为啥我们不行?(大概扶植本国经济吧,也能偷懒,毕竟自己人好管);审查员自己的影响,每天看这些势必有影响(发条橙);网络使全球人心的共通,对于审查员更明显;言论自由观点(我的):事物都有丑恶一面,如果你没看到,说明你还不了解它;人总是需要假象的敌人(鄙视对象),外国移民、CXK。

42分钟前
  • 马828
  • 力荐

看!这盛世,时代之恶,我在这儿先糊你脸上为敬。

43分钟前
  • 朱马查
  • 推荐

很有意思的视角,第三世界廉价审查员,被剥削的不只是重复性劳动,还被迫承受了最为骇人听闻的精神暴力。后半部分上升到社交媒体就比较泛泛而谈了,无非是民主和民粹的讨论,作者立场也过于明显。这部电影本质还是猎奇,但也只有冲击力和未知能引发思考。

47分钟前
  • 阿暖
  • 还行

你好,你发表的关于《The Cleaners》的短评,因为含有违反相关法律法规或管理规定的内容,已被移除。感谢你的理解与支持。——豆瓣电影

50分钟前
  • 朝阳区妻夫木聪
  • 还行

发人深思的优秀纪录片,不能忽视的人群——网路清道夫

53分钟前
  • 妮可妍妍
  • 力荐

当影像创作紧紧地与道德与立场捆绑,纪录片本身也跳脱开单纯的新闻属性,质问甚至鞭挞所有人习以为常的伦理框架。从网络清道夫,到社交媒体时代的仇恨传播,一块荧幕前后是监控的过犹不及,和话语的无孔不入。信息量大,有些话题点到即止,拍的精细完整,但再做扩充也无妨。

56分钟前
  • 鸡头井。
  • 还行

一部片顶十季《黑镜》,而且与当下联系更紧密,讨论的核心仍处在on-going状态,没有人知道之后会发生什么改变。手法无甚高明,但贵在争议的提出和创作者的态度,毕竟很多难题并不可能也并不应当由这部纪录片来回答。

58分钟前
  • Lycidas
  • 力荐

常在河边走哪能不湿鞋

60分钟前
  • 推荐

看到扎克伯格意气风发的脸,就像是这个世界真正的领导者一样。可怕的是竟然还有人把自己和国家的人民与希特勒和被屠杀的犹太人类比,渺小无力的我们只能对着社交媒体冒泡。

1小时前
  • 噼里啪啦
  • 推荐

① 网络审查的存在是必要的,如同现实生活中的质检、保洁和垃圾分类等工种;但对「垃圾」、「有害」的标准界定是模糊的;② 人与人之间的道德标准、族群与族群之间的习俗观念、国与国之间的法律政策都是存在差异,而遍及全球的社交网络平台必然无法普适所有地区人民;③ 平台工具的中立属性,与吸引点击的传播逻辑,形成天然矛盾;④ 国家和联合国都难以解决的矛盾争端,居然需要距离事发千里之外、月入几千元的审查员做出判断,真心无奈。

1小时前
  • 十一伏特
  • 力荐