像fb这样的垄断型大企业,你说他搞审查是完全出于对使用者身心健康着想,才偷偷摸摸在第三世界国家录用这么一大批低学历打工者负责审核,我是完全不信的,这里不可能没有经济利益和政治立场的考量。
毕竟我在推特和脸书看到的关于中国的很多视频,有些比较血腥暴力色情的,他是没有删除的,你能说他们一点政治立场都不站吗?如果在脸书,一个内地的和台湾的骂起来了,内地的被举报会被封号,台湾的毛事没有,你说这里面没立场吗?我踏马是完全不信的。
抛开政治不谈,只看有没有权利审核。我觉得权力这个事,和脸书等媒体的垄断地位是分不开的,他的规模太庞大了,全世界都在使用,除非你不用。他当然没有资格审查,没有资格替别人的大脑做决定该怎么思考,但是一个垄断性大型私企,不是普通使用者能控制的,那就变成他怎么说怎么有理,你没办法。
脸书这类大型垄断媒体自认为可以审核使用者,但是,谁又来监管他们呢?谁在为他们站台,他们背后有没有被谁操纵?我们都不知道!!!!
原作者 全媒派 2018-10-24 仅供学习交流
信息“擦洗工”、事实核查员……那些卡在人工与智能夹缝的新兴传媒人 qq.com
9月,加州女子Selena Scola一纸诉状把Facebook告上了法庭——因为看了过多暴力、血腥和色情图片,她患上了PTSD(创伤后应激障碍)。Selena是Facebook合作的第三方Pro Unlimited的内容审核员,负责删除Facebook上“剧毒、不安全、有害的内容”,包括色情、暴力、仇恨言论等。
对于PTSD,维基百科的解释是“指人在经历过性侵犯、战争、交通事故等创伤事件后产生的精神疾病”,常见于遭受重大打击后导致的精神创伤。然而,在互联网时代,没有性侵,也没有战争和交通事故,因视听感官长时间遭受刺激产生的伤害,不亚于物理刺激造成的精神损害。
新技术带来了繁荣的互联网产业,随之也诞生了新工种,内容审查员是其中的代表之一,除此外,还有事实核查员、论坛版主、合作伙伴经理等,他们的生存与困境成为了网络时代的缩影。
内容审查员与PTSD:隐匿的信息“擦洗工”,无处安放的焦躁
社交网络上,一头是梦想家用技术缔造的开放盛世——用网络建设一个连接世界的地球村,另一头的人躲在盛世的影子里,把好最后一道关卡——鉴定并删除变态的视频,这一点,人力比机器做得好多了,至少在当下是如此。
或者更早以前的论坛时代,版主们也担任着这个角色,但他们的规模和工作量远不如社交网络时代。据报道,仅Facebook一家,内容审查员的数量就达到了7500人。这些人甚至不是Facebook的员工,只是被第三方雇佣来的廉价劳动力。
2014年,《连线》杂志发表了一篇调查报道《社交网站上不为人知的隐匿职业:信息“擦洗工”》。担任“擦洗工”的廉价劳动力多分布在东南亚,他们可以拿着“美国水平”的工资,代价是“直面人性的恶”。
YouTube在美国本土雇佣的审查员要求更高,需要对东南亚员工审核过的视频进行二次过滤,公司许以YouTube的工作场所、办公福利等条件,甚至承诺转正机会,Facebook条件也是如此。
事实上,这些审查项目几乎是秘密进行,科技公司和外包员工、第三方签订保密协议,不允许他们向外透露任何审查细节,Facebook把这个秘密项目起名为honeybadger(蜜獾)。在此次起诉事件中,Selena暂时无法提供更多工作细节,她担心一旦违反保密协定,会遭到报复。
纪录片《信息擦洗工》海报(2018.5)
在Selena的起诉声明中,她提到Facebook和第三方公司都不曾提供心理干预以保证审查员的精神健康。但即便提供了心理医生,内容审查员也不知道如何开口讲述自己的经历。据《连线》杂志报道,YouTube审查员Rob说,YouTube给擦洗工们雇了心理咨询师,理论上谁都可以和他们谈心,但Rob不知道如何接近他们。据他所知,也没有谁去找过咨询师。所以他只能靠自我调节——喝酒喝得越来越多,身材也越来越胖。
而创伤之后,审查员们可能产生一辈子的心理阴影。Selena的起诉文件里写道:“她的PTSD症状可能会因为碰到鼠标发作,也可能是因为走进了一栋冷冰冰的大厦、在电视上看到一段暴力视频、听到吵闹的声音,又或者,是因为受到一点惊吓。”
如果要真正解决审查员们的心理问题,或许还是应该回归技术,比如提高人工智能的识别能力和审查效率。但目前看来,开放的网络世界背后,还有如此多阴暗和不堪,扎克伯格与科技巨头们在人工智能审查上所做的努力还远远不够。
Reddit版主:用爱发电,无薪且糟心的职位
Reddit,一家月活达到3亿的神奇网站。界面设计极其Old School,但因为许多细分、有趣的小组吸引了一个又一个小圈层爱好者。
相比于Facebook内容审查员的隐秘身份,Reddit版主似乎更为人熟知一些,他们有自己的账号,有删帖和禁言的权利,小组用户可以直接和版主沟通。不同的是,在Reddit上当版主没有薪水,全靠志愿者们用爱发电,他们也一样要遭受种族主义、性别歧视、水贴刷屏等垃圾内容的精神侵害,甚至是被用户直接攻击。
全媒派在《 不抬杠是不可能的!有人用五年筛出了60万优质杠精 qq.com》提到一个小组changemyview,该小组为了建立一个理性讨论的优质社区,启用了22个志愿者作为版主,24小时巡视新鲜发帖,如有不当,则会沟通或删除。
其它小组的版主工作模式也是如此,但生存条件可能更艰难一些,至少,版主人数达不到22个之多。而被审核的小组用户们可没有那么开心,极端的人,给版主们发去一条又一条的辱骂和威胁信息。
在Engaget和 Point发起的联合报道中,他们找到了10个Reddit版主。版主们管理着大大小小的小组,最大的达1600多万订阅者。但无论小组大小,他们的困境都是相似的,被辱骂、攻击、人肉、诅咒甚至死亡威胁,而Reddit官方,一次又一次忽略了版主们提交的被攻击报告。
版主Emily管理着“伦敦”小组和“新闻”小组,为了避免极端报复,她从来不暴露自己的性别,以免有人威胁“强奸她”。还有一些攻击和威胁,描述得具象又恐怖,让人光看文字就会起一身鸡皮疙瘩。
牛津大学实验心理学副教授Lucy Bowes认为,长时间的版主工作必然导致抑郁症、PTSD和焦虑症等精神疾病,工作时间越长,患病危险越高。
对于Reddit这样的社区来说,技术监管和人力监管不到位,内容过于野生是一大原因。但与此同时,注册机制过于松散,导致恶意账号删不尽,喷子们随便用一个邮箱又可以注册回归。即便是禁言72小时,用户被解禁后还是会继续攻击。
而Lucy认为,对于Reddit这样体量的公司而言,要解决版主们的问题,应该从公司自身入手,比如对新版主进行培训,加强汇报反应机制的建设,或是截屏留取证据,以确保未来起诉。另一方面,对于这些志愿者,Reddit也应该随时关注他们的心理健康,及时进行干预和治疗。
尽管体量大,提供咨询的话会增加不少成本,但对于一个依靠一个个小组支撑起来的庞大社区而言,这些愿意资源维持社区秩序的人才是Reddit的财富。
事实核查员:真相的代价
在巴西,一份299页的文件在WhatsApp的右翼群里疯转,里面有40名事实核查员的社交媒体详细资料。巴西网友视奸他们所有人的账号:看,这是他2011年发的贴,他就是一个左派分子。
这一切,只是源自于事实核查组织Agência Lupa和Aos Fatos在今年5月宣布的计划:与Facebook合作,做好今年10月的总统大选辟谣工作。事实核查员们将手动辨别信息流中的假新闻,并打上“Fake”标识,将假消息的影响力降低80%。
但打击也由此开始。
先是大V和右翼媒体发文指责,事实核查员的工作是做“信息审查”,后又有人画了幅漫画,把事实核查员画成了投资人乔治·索罗斯的宠物,在WhatsApp门口巡视。
接下来是死亡威胁。有人给Lupa的总监Tardáguila发信息“你看不到巴西的下一任总统”、“我们会挨个来收拾你”……
这并非孤例。事实上,同Facebook合作的34个事实核查组织都受到了网络谩骂、人肉等威胁,这对他们的工作造成了很大困难,尤其在媒体信任度本就不高的国家。
事实核查的进展并没有那么顺利,一是利益相关方和一些网民在疯狂打击,二是在Facebook方面,他们并没有对这34个事实核查项目投入足够的资源,甚至在态度上都不够强硬和坚定。
在巴西,Facebook从未就此次事实核查项目召开新闻发布会,反复要求的热线和邮件也迟迟没有开通,唯一有的,只是在今年5月发布了两条博文,一是承认网络暴力确有其事并谴责有关行为,二是宣布和巴西、墨西哥和哥伦比亚的事实核查项目的合作。
在Tardáguila看来,Facebook需要明白,这是他们的项目,公司必须要发声,“我们努力了三年,没有任何改变,这些改变必须由Facebook来承担”。为此,她也提出了一些切实可行的合作条例:
关于需要被核查的内容,平台需要更好地翻译相关通知。
Facebook方开通热线或邮件地址,用户和媒体可以询问事实核查项目的相关问题。
在每个国家建立和事实核查员的主要沟通渠道。
对Facebook的事实检查项目运作流程进行可视化,翻译至现有的合作国家。
定期与事实核查合作伙伴开会,了解项目进展情况。
合作伙伴经理:与170个编辑室共同产出
ProPublica在2016年推出了有史以来规模最大的新闻众包项目Electionland 2016,和全国大小媒体合作,以任务分派的形式合作完成大选报道。报道覆盖范围广,参与媒体多,资源利用率高。随后,ProPublica试着开了新的项目,也由此诞生了一个新的职位。
新项目名为Documenting Hate,一个追踪和报道仇恨犯罪和偏见事件的调查项目。新的职业则是合作伙伴经理(partner manager),目前由记者Rachel Glickhouse担任。她像一个统筹者,同时担任记者、编辑、研究员、社交媒体制片人、招聘、培训和项目经理。
Documenting Hate官方网站
通过合作伙伴经理的努力,Documenting Hate项目和150家国家/本地媒体,以及20家高校媒体建立起合作关系。项目的关键在于资源共享和合作报道,ProPublica搜集到的仇恨事件案例和数据都被统一上传到官方数据库保管,并向加入的媒体开放使用,比如公众提供的线索和故事、警方的案卷信息,真正实现了资源上的共享和合作。
与此同时,合作伙伴经理也会担任起“空中管制调解员”的作用,确保不同记者不会在一个事件上耗费精力,或是针对不同当事人,指派合适的记者跟进。
虽然类似Documenting Hate这样的新闻众包项目有利于报道资源的合理分配,但合作伙伴经理也面临着不小的挑战。加入项目的记者可能无法彼此合作,也可能有等级倾轧,又或者,记者们对项目的热情有一定的周期性,有的可能无法长期为这个项目效力,而在一些特殊时期,参与者会少得可怜。
尽管如此,在Rachel看来,众包模式依然会是未来新闻的发展方向之一,在编辑室的时间和资金都非常稀缺的时代,有一个中心化的项目聚合资源并进行再分配,自然能极大程度上缓解编辑室所面临的尴尬。
互联网浪潮下诞生的新职位固然有其局限性和困境,但菲律宾事实核查项目Vera Files的联合创始人Chua认为,类似于事实核查员遭遇网络暴力的事件,Facebook固然有保护事实核查员的责任,但如果Facebook无法保护他们,那记者必须自我保护,“新闻业有风险,事实核查同样如此。”身为大时代下的小个体,我们能做的,不过是催促科技公司解决眼下的问题,让个人迅速跟上这滚滚向前的历史车轮。
【参考资料】
FB内容审查员患PTSD
//www.businessinsider.com/content-moderator-sues-facebook-ptsd-2018-9
社交网站上不为人知的隐匿职业:信息“擦洗工”-钛媒体官方网站 tmtpost.com
//www.theguardian.com/technology/2017/jan/11/microsoft-employees-child-abuse-lawsuit-ptsd
真相的代价:事实核查员遭到的威胁与攻击
//www.poynter.org/news/these-fact-checkers-were-attacked-online-after-partnering-facebook
Reddit讨论区审核管理员遭仇恨言论攻击
//www.engadget.com/2018/08/31/reddit-moderators-speak-out/
新闻业的最新职位 - 合作伙伴经理 -如何在ProPublica的新闻编辑室工作
作為一個威權體制下的網民,看完這部紀錄片的第一感受便是:隔靴搔癢,過於浮泛。
社交媒體上出現的種種問題,其實也就是現實世界的反映。色情/血腥/恐怖組織/政治,每一個議題下都可以分化出無數的觀點與立場。紀錄片試圖用不到一個半小時的體量,以網絡審查員為主要視角進行全方面的探討,注定只能泛泛而談。
但我確實欣賞導演對不同立場的同等尊重。理论的说法叫做:“兩面說辭”。
對於色情的判斷標準。是藝術還是淫穢?
對於恐怖組血腥視頻的判斷標準。是非法傳教還是真實歷史記錄?
對於社會災難真實記錄的容忍度標準。是新聞的真實要求還是對苦難者的二次剝削?
對於不同政治觀念/仇恨言論的容忍標準。是憲法給予的言論自由保障還是民主社會的底線堅守?
不同人站在不同的立場與坐標,自會給出不同的答案。正如影片中所說:背景與身份決定了思維方式。而社交媒體這個平台無非是為不同立場、不同觀點的交鋒提供了舞台。平台背後商業資本、政治權力、民眾影響且深深塑造著社交媒體。
科技公司為了利益,會不斷滿足民眾的個性化需求進行算法推算,由此進行的信息推送最終造就信息茧房。民眾接受的信息內容越來越狹窄,加之同溫層相互抱團取暖,觀點自會越來越極化。
但我其實認為這樣的說辭有些高估了民眾的自主權與選擇空間。真正掌握且控制信息的還是那個無形的手。為了政權的穩定,可以要求科技公司進行IP鎖定,限制特定內容的瀏覽。自然也可以直接建造一個全球最大的局域網。以保護民眾之名(更多時候的常見話術是為了保護下一代)剝奪本可以擁有的自由。殘酷而又現實的未來構想“數字極權”,或許正在一步步到來。
我喜歡影片最後那位辭職的審查員說的那番話:不要逃避,不要麻木自身。
現實本身的苦難與黑暗是刪除不了的。(但我支持的是有底線的自由空間,並非放任自流)呆在一個溫良且無害的環境之中,會影響個體批判性思考能力,挑戰能力的訓練,逐漸縮緊自身表達的空間,放任民粹思想的氾濫。個體被迫或者無意識地逃避現實,逃避了公民所需承擔的責任。與此同時,語言本身也遭到了殲害。
只有在大量信息獲取的前提下,才能進行相對有效的信息判斷與審視。在簡體中文信息這個極其糟糕的環境下,一味地聽信與一味的不聽信,都是糟糕的能力體現。(孫楊一事的輿論風向轉變是極其具有參考價值的控制案例。足以以小見大。)(好像話題扯遠了orz......
說回正題來,對於影片中的審核員我內心十分同情,領著不高的薪金,每天都得直面黑暗與血腥。
但對於第三帝國的審核員,秉著一個沒有來由便被炸號的人的立場,我只能勉為其難的認可他們作為一顆不鬆動的螺絲釘所作出的努力。可轉念一想吧,我能體諒他們,誰來體諒我?
紀錄片裡提到的問題一時半會兒也解決不了。思想本來也無法統一,唯一要做的是建立一個文明包容的互聯網空間。全球都在右轉,樂觀的來說:或許此次疫情能成為契機,讓大家重新意識到全球化的重要性。開放包容的精神還能得到提倡。但悲觀的來說,歷史不會一直前進,要做好止步不前甚或倒退的準備。(或許在這個時候成為一顆第三帝國的螺絲釘不失為個體的良好選擇🌚(對不起,俺又在陰陽怪氣了
[纪录片赏析课作业01]
内容审查员就像是一名狙击手,我们的目标是违反应用程式规定的用户。 我妈妈总是告诉我,如果不好好读书,就只能跟她一样当个拾荒者,他们依赖捡垃圾为生,这是他们唯一知道的谋生方式。我害怕自己将来只能留下来跟着捡垃圾,这也是促使我用功念书的一个原因。 2016年1月,我画了一张男性器官很小的川普画像,叫做“让美国再次伟大”,它立刻爆红,数百万人在许多社群平台上疯传,几天后川普在竞选辩论中提到自己的器官尺寸,我记得有朋友打电话告诉我说,是你让川普在辩论中透露他的器官大小吗。 作为内容审查员,你必须要有原则,是你在决定人们是否该看到某张图片,所以头号重大错误就是批准裸照、 和女性胸部、男性器官,这没有容忍的余地。 一个虚构的作品,它并不暴力,也无关性爱,它只是一个人的裸体配上川普的脸,不懂为何人们会觉得人的裸体这么恶心。 这工作真的不好做,但最后却成了带罪恶感的乐趣,感到罪恶是因为我居然在看这样的东西,乐趣是因为我现在很享受看到的内容。 脸书基本上就是一家科技公司,有许多工程师经营,它重视自家产品,重视公司设施,它重视发展规模,重视用户体验,但它不是一家媒体公司,它不会考虑到内容或内容创作,或是内容编辑和审查的事,这些事并不在它的基因里面,只要脸书碰到有人说,“嘿,你们要为这内容负责的时候,他们的答复会是,‘哦,我们只是搞数学的,我们只负责写演算法,去提供你们想要的东西,我们不干涉编辑’”,但政治现实是在川普之后,在英国脱欧之后,这样的说法已经不行了,我们现在在一个点上,只要大众不接受现状,在某些点上政府就会立马介入,我认为脸书是了解这情况的。 YouTuBe一直希望能够跨越国界,因此从2007年左右,我们遭遇许多被封锁的情况,当土耳其政府不知如何与你取得联系时,他们索性关闭你在该国的服务。我们花了一段时间才弄清楚,是什么令他们感到不舒服,我们最后终于设法掌握了令他们不开心的特定影片,其中有些是关于凯末尔,有些则是他们声称违反土耳其法律的恐怖主义影片。我记得有一天我在凌晨两点,审查令土耳其政府感到不快的67个影片,从中做出哪些应该删除,哪些应该留下的决定,有个重点是对于一些影片来说,它们其实没有违反社群准则,所以一般不会从平台移除,可是却触犯了土耳其的法律,所以我们决定对土耳其用户采取IP位置封锁,土耳其用户将无法看到这些影片,我不喜欢这种解决方式,但这就是我们的做法。 街上聚集了许多了不起的人,警方在这里部署的人数相当多,我很好奇他们会在这里待多久,因为我知道只要他们一撤离,人们就会开始干架。 一些左派人士认为你政治不正确,我们这群人拥有枪支、子弹,受过训练,只要我们开始开枪射杀,我相信所有的赃东西很快就会消失。 人性归人性,而科技就只是种中性工具,并没有助长任何东西,但事实并非如此,因为科技确实存在偏见,偏见就是它实际追求的一个目标,那个目标就是什么才能得到最多人的关注,什么才能吸引数十亿人,成功转移他们的注意力,并且保持下去。 这项工作会损害你的大脑,让你觉得暴力是正常的,让你认为杀人,轰炸是正常的。 我不能让影片影响你,但这因人而异,有些人就是会受到画面的影响。 我突然自己,为什么要做这份工作,只是为了让人们认为上网是安全的,事实上在你的日常工作中,上处都是危险,我们在奴役自己,我们应该从麻木中觉醒,因为这并不安全,我们应该正视现实。 选择希望而非恐惧这需要勇气,期许我们可以建立比过去更加良好的环境,你必须乐观的认为你可以改变世界,我们投身其中,每一次都是一种联系,每一次都是一种创新,日复一日,日复一日,这就是为什么我认为我们一起投入的工作,现阶段比以往任何时候都重要。
应该让世人知道,有审查员这样一群人在工作。他们依照规定审核发布的内容,确保社交媒体的安全。
Ignore, Delete, Ignore, Delete ...... 这便是审查员的日常。
应该让世人知道,有审查员这样一群人在工作。他们依照规定审核发布的内容,确保社交媒体的安全。
开篇从员工的角度开始,员工感觉这工作是网络世界的安保人员,维护网络世界里面的秩序,避免有害内容传播。
员工都在菲律宾的马尼拉,这些就业让很多人脱离了以捡垃圾为生的困境,担当起家庭开支的重任。
工作强度有多大,每天的指标是 2.5 万个审核。那些员工可能没有开玩笑,可能真的会破吉尼斯纪录。
员工接触的内容有些哪些?儿童性交,暴力血腥,污蔑政治等内容。这些内容慢慢侵蚀人的头脑,审查员的心智感觉迟早会出问题。
平台角度,什么是不合适的内容?很难筛选。因为即便是由人来筛选甄别,也很难做好,别说是程序了。但平台是一定要承担这份社会责任的,有义务维护平台上内容的健康性。
为维护的工作上,也很难做好。平台会针对性地删除和屏蔽一些内容。Facebook 听从土耳其政府的要求,删除政治性言论、图片和视频。这个维护是不是过头了?
有的视频并不违反社交媒体平台的规定,不属于删除对象,但在土耳其被定为违法视频。对于这种情况,社交媒体平台的解决方法是根据 IP 来屏蔽土耳其的用户。
平台让言论传播更快速,言论自由便有遇到对立观点的情况,现实情况是,情况没有因此而促进双方的理解,反而激发矛盾。这种事情也怪平台吗?但平台确实有责任遏制散播仇恨。
从媒体的角度来看,像叙利亚处于战争的国家,很多血腥的图片或者视频,想引发社会的关注,但是也会被审核删除。
审查员每天都在看这些充满暴力、血腥、仇恨、色情的视频,他们的身心健康,公司会保障吗?如果审查员跳过这些视频,这与公司的制度相违背,会有扣减业务分数的惩罚。确实有出现过,部分审查员由于受到每天看的视频的影响,在家上吊自杀。
这部纪录片采用三个视角贯穿全片来进行对比分析,是比较全面且多角度的——一个角度是该片的“主角”,即网络审查员;另一个角度则是针对于裸体与艺术、恐怖主义与人道主义等等一系列网络审查员面临的伦理问题,跟网络审查员意见相左的一些群体,他们处于不同的立场,共同构成了这一视角;第三个角度则起到了一种推动情节发展的作用,或者说不算一种角度,因为这一视角并没有什么立场,只是从美国几大科技公司的听证会上,我们能从回答中看到科技在如今的网络环境中扮演的角色,同时反复插播科技公司的听证会画面与网络审查员面临强大的精神压力形成对比,暗示了这种外包制度的不合理和科技公司的不负责任。 在人物的选择上,我们看到影片着墨最多的是几个审查员,他们有的出身拾荒者家庭、有的需要照顾自己刚出生不久的孩子、有的带着预防者的高度责任感却最终走向辞职,这几个审查员的形象主要是靠自白和工作画面得以完整展现的。在处理一段段的影片时,他们往往会给出处理的根据,但是这个根据并不是绝对标准,也因此与另外一群人产生了观点对立。一段影片,两种观点,代表着对立方的人物由此出场,他们可能是艺术家、摄影师、记者或者是普通的公民。出于对自由表达的追求、对人道主义的关怀、对真相的执着、或者仅仅是对当政者的反对之声,这些人都指出,自己要表达的内容被删除是不应该的,他们指出网络审查制度的不合理之处,也让我们思考网络审查员的标准是否有些过于主观。这些反对者的设置其实丰富了作品的视角,赋予了本片辩证性和批判性思考的空间。这些诉求不同,却都因审查制度而受到影响的人们,恰恰丰满了本片的人物塑造,从反面提出网络审查员们面临的矛盾和挣扎。
看!这盛世,时代之恶,我在这儿先糊你脸上为敬。
这群为了网络的健康与和谐默默付出的人们,难以想象他们每天要面对多少充满血腥、暴力、色情以及政治恐怖的镜头。他们目睹过自杀,目睹过砍头,目睹过性侵,出现一点小小的纰漏都可能会造成死伤甚至战争,他们在不为人知的地方守护着世界的和平
发人深思的优秀纪录片,不能忽视的人群——网路清道夫
特别严肃、深沉、拓展视野和引人熟思的一部纪录片。新网络时代社交媒体在左右我们的思维动向,可怕的是它利用我们的潜意识,就在我们毫无意识之间替我们决定了一切。而被牺牲的网络审查员,真的新时代最悲伤职业。
审查;还以为是日本人做的,原来是德国人;色情delete,战争暴行(宣传恐怖delete,反战ignore)但作为网络守望者的这部分菲律宾人不可能了解那个背景不好判断,忽略的害处:罗兴亚人的迫害,稀疏的言论自由:人里面不成熟、容易受恶影响的还是不少的,审查是一种偷懒的方式,人类就不用自己费劲去判断了,政治言论:油管的仅对该国ip屏蔽,也算厚道,那为啥我们不行?(大概扶植本国经济吧,也能偷懒,毕竟自己人好管);审查员自己的影响,每天看这些势必有影响(发条橙);网络使全球人心的共通,对于审查员更明显;言论自由观点(我的):事物都有丑恶一面,如果你没看到,说明你还不了解它;人总是需要假象的敌人(鄙视对象),外国移民、CXK。
“Delete, delete... Ignore, ignore”,以网络世界不为人注意的审查过滤工作展开,用Google和FB做引子,到最后拉开成了对极右思潮的兴起、政治讽刺的界限还有中东和罗兴亚人的全面涉及,88分钟里满满的信息量和各种立场。勾勒了网络世界近年来除去深网、色情交易和信息安全之外最严峻的现状。无法想象各位清道夫需要在工作中承受多少压力与伤害,才能换得一份维持温饱的工作;女孩穿行于垃圾堆的画面映照,十分加分。
一部片顶十季《黑镜》,而且与当下联系更紧密,讨论的核心仍处在on-going状态,没有人知道之后会发生什么改变。手法无甚高明,但贵在争议的提出和创作者的态度,毕竟很多难题并不可能也并不应当由这部纪录片来回答。
脸书YouTube推特上,内容合法不合法,是让一群外包的菲律宾人来审查。难怪影片中,故意让审查员看两张照片,一张是获普利策奖的越战照片《火从天降》,因为小女孩全身赤裸,被删;另一张,伊战美军虐囚事件,审查员看成了ISIS士兵在虐美军俘虏,被删。
引人深思。同样的内容在不同的语境下是不一样的,讽刺或者谴责是不是就可以?(实际工作中真的就遇到这样的情况啊)提供一个“干净”的环境是不是就不利于理性批判呢?非常不爽的是,这样一个“国际纪录片节”竟然放个样片给我看,中间字幕还因为剪辑版而字幕对应不上。
看到扎克伯格意气风发的脸,就像是这个世界真正的领导者一样。可怕的是竟然还有人把自己和国家的人民与希特勒和被屠杀的犹太人类比,渺小无力的我们只能对着社交媒体冒泡。
清道夫不是人干的活。每天看各种黄色暴力血腥视频,有害身心。审查员有自杀的,也有宁愿回去捡垃圾,也不再看那些网络垃圾。
常在河边走哪能不湿鞋
你好,你发表的关于《The Cleaners》的短评,因为含有违反相关法律法规或管理规定的内容,已被移除。感谢你的理解与支持。——豆瓣电影
索爾仁尼琴說過“每個人有不知情的權利”,但是人又卻是好奇和獵奇。前幾年Dark Net第一季的其中一集就對網絡審查員有過展現。感覺這部紀錄片是擴展版,而且選取的事例頗具典型性。我依然覺得對於互聯網(尤其是移動互聯網)要採取謹慎甚至消極的態度。整個片最讓我印象深刻的是NGO組織對敘利亞內戰的社交網絡視頻爭分奪秒的保存。畢竟,很多視頻基於版權和審查已經無法被觀看,而本身又具備價值。其實,“知道太多”的審查員和違規視頻圖文資料庫同樣是個不穩定的危險因素。難道就不怕造反嗎?
很有意思的视角,第三世界廉价审查员,被剥削的不只是重复性劳动,还被迫承受了最为骇人听闻的精神暴力。后半部分上升到社交媒体就比较泛泛而谈了,无非是民主和民粹的讨论,作者立场也过于明显。这部电影本质还是猎奇,但也只有冲击力和未知能引发思考。
① 网络审查的存在是必要的,如同现实生活中的质检、保洁和垃圾分类等工种;但对「垃圾」、「有害」的标准界定是模糊的;② 人与人之间的道德标准、族群与族群之间的习俗观念、国与国之间的法律政策都是存在差异,而遍及全球的社交网络平台必然无法普适所有地区人民;③ 平台工具的中立属性,与吸引点击的传播逻辑,形成天然矛盾;④ 国家和联合国都难以解决的矛盾争端,居然需要距离事发千里之外、月入几千元的审查员做出判断,真心无奈。
当影像创作紧紧地与道德与立场捆绑,纪录片本身也跳脱开单纯的新闻属性,质问甚至鞭挞所有人习以为常的伦理框架。从网络清道夫,到社交媒体时代的仇恨传播,一块荧幕前后是监控的过犹不及,和话语的无孔不入。信息量大,有些话题点到即止,拍的精细完整,但再做扩充也无妨。
一部上影节北影节选片首轮一定被毙的纪录片出现在即将被迫全面退票转为免费包场的西宁,来自一个全球最大的被清理者组成的国度。
設計的場面和台詞過多,集中於弘大命題而遠離了作為網絡審查者的“人”。始終陷在一種美感過度的不適中。講演現場等視頻的活用很好。“被審查”的部分影像,那些自殺情色宗教與恐怖暴力,除了展示,真的沒有更好的方式了嗎?對影像資料的處理和使用,需要倫理上的再思考。JIFF0507M9
不涉及处在局域网的我们,主要介绍采访不存在的欧美几大上传类社交网站的图片视频的人工审查员,他们居然都是在菲律宾的当地人,每天面对两万多件的色情暴力政治战争等敏感信息。梦到大量不同男人生殖器的女基督徒,还有的看过上百段斩首的影像,在自残部门调离不成而自杀的员工,叙利亚老百姓拍摄的那些和isis的如何处理,开放网络后只识脸书的缅甸人被假消息散播利用挑起的大屠杀,最后现身的扎克伯格发布会好像把矛头直指大公司在建立自由之地的同时今后要怎么走向,穿插在美国被诉讼而改变准则的几次事件,对了解那些人背后的操作程序和世界阴暗面有不少直观的感受,联想在高墙之内被保护的这片土地更加唏嘘。