监视资本主义:智能陷阱

记录片美国2020

主演:杰伦·拉尼尔,罗杰·麦克纳米,斯凯勒·吉桑多,卡拉·海沃德,文森特·卡塞瑟,马蒂·林赛,Ena Henderson,Chase Penny

导演:杰夫·奥洛威斯基

 剧照

监视资本主义:智能陷阱 剧照 NO.1监视资本主义:智能陷阱 剧照 NO.2监视资本主义:智能陷阱 剧照 NO.3监视资本主义:智能陷阱 剧照 NO.4监视资本主义:智能陷阱 剧照 NO.5监视资本主义:智能陷阱 剧照 NO.6监视资本主义:智能陷阱 剧照 NO.13监视资本主义:智能陷阱 剧照 NO.14监视资本主义:智能陷阱 剧照 NO.15监视资本主义:智能陷阱 剧照 NO.16监视资本主义:智能陷阱 剧照 NO.17监视资本主义:智能陷阱 剧照 NO.18监视资本主义:智能陷阱 剧照 NO.19监视资本主义:智能陷阱 剧照 NO.20
更新时间:2024-03-02 17:07

详细剧情

  我们发推文、点赞、分享 — 但日益依赖社交媒体会带来什么后果?随着数字平台日益成为人们保持联系的重要方式,硅谷内部人士通过暴露屏幕另一侧的隐藏内容,揭示了社交媒体如何重新改写文明。

 长篇影评

 1 ) Netflix的陷阱

假设有一个传统的汽车公司,汽车公司从开始研发,测试,生产制造,上市,售后等等一系列环节构成了汽车这个产品的生命周期,在这生命周期的每一步,都有庞杂的数据,而且所有的步骤都要被记录以方便后续的研究和改进。在公司开始研发前或者期间或者投放上市后,公司相关部门比如市场部会进行市场和用户调查,了解用户的需要跟反馈,以便提供更好的产品与服务,还有之后的改进。这是一个传统商品的开发过程。汽车公司希望开发出最好的产品,这样他们就可以获得更大的效益。这个过程大家通常比较熟悉而且听起来也是合情合理。

科技公司的产品也有类似的过程。一个很大差别在于用户几乎在产品还没成型,仅仅是测试的时候就被参与其中,用户与这个产品全部互动的数据都会被记录以作为产品研发与改进的基础。而这一差别会造成很多的问题,传统行业获取用户的数据往往基于问卷或者电话或者邮件等等,这些方式在用户回答时已经知道自己提供的信息会被用于该公司的产品研发,所以用户是知情且同意的。科技公司所记录与收集的数据发生在用户与产品交互的所有过程中,其实用户并不知情自己的数据会被用于该产品的开发,更不用说同意。同时传统产品所需要的用户信息往往比较公开,比如喜欢什么车型,几口人用等等,这些信息涉及到的私密性比较低。但是科技产品所需要的绝大多数是用户相对比较私密的信息,比如你搜索了什么,你对哪个人感兴趣等等。科技公司所涉及的用户的知情权与隐私权是一个已经浮出水面多年的法律与道德问题,各方力量斡旋多年在寻求解决方案。

这一系列过程在影片里被称为监控,而且为了使监控这一概念更具说服力,影片设计了一些场景,比如以人来模拟产品背后运作的过程,好像对每个用户都有一套设备来监视他做了什么看了什么,甚至于他在想什么。以影片中的模拟场景来看,这的确是监控,而且这非常吓人。但是以脸书每个月大约30亿的活跃用户来看,根本不可能会对于每个用户有一个团队来通过很多大屏幕来监视其一举一动,来揣测他的心思。所以这个比拟是失实而且夸张的,完全不符合纪录片的原则。同时揣测他人心思会涉及到猜对或者猜错,这一环节被渲染到所谓的背后的模型会精准预测到用户的心理,甚至去改变用户。换句话说用户赤裸地处在一个危机四伏的敌在暗他在明的毫无防备的世界里,随时可能为人鱼肉。假如剔除掉这些场景模拟,与传统产品的开发过程进行对比的话,其实所谓的监控本质就是记录和收集数据。记录与收集也让人很不舒服,因为这涉及到用户的知情权与隐私权,这都需要科技公司尊重,但这远没有被监控听起来那么让人不寒而栗。监控一词奠定了这个“纪录片”的基调,就是让人恐惧。为了让恐惧这一情绪可以更强烈,影片找了形形色色的人来讲述科技公司如何在做“人类期货”的交易。通常记录片为了公正客观,会采访众多不同角度的人,众多不同的观点相互碰撞的过程中就会暴露其中某一观点的局限与弊端,而这一局限可以被别的观点所解释和完善,同样这个观点的问题又会被别的观点修复等等。这样观众会看到一个比较完整的画面。

Netflix背后有一系列模型,这些模型计算着如何给潜在用户打广告,给用户推荐,以及让用户订阅等等。从这个层面来看,Netflix也是一家如这部影片中描述的科技公司。事实上,它就是一家科技公司,而且它还是一家顶尖科技公司。Netflix不同于其他科技公司的很大一点在于,其他科技公司作为一个平台,它的产品本身是不生产观点的,它的观点是来自于平台上不同用户的不同观点。但是Netflix是出产影片的,所以它是生产观点的,不止如此,它还在生产情绪。这部影片里Netflix的观点与情绪就是科技公司在监控你,而且这是非常可怕的。客观的记录被强调为主观的监控所以从一开始它就没有预留给用户自己思考的空间,而且在这个观点与情绪之外,这个影片作为Netflix的产品它并没有像其他平台一样引入多方的观点与情绪,给予用户自己判断的空间。相反地,Netflix深知恐惧和焦虑可以在用户中快速传播,从而成就它的产品,它反倒在利用这一点。所以Netflix在这个产品里站在道德制高点上抨击着其他科技公司的种种行为,而在暗处它其实在做着同样甚至更糟糕的事。

 2 ) 又开始疯狂讲话

短评里对这个片子的微词多着眼在影片内外的割裂对立。 但我倒是在观影过程中忍不住跑神头脑风暴了n次,这么看,影片对我就不仅仅是老生常谈了。 虽然没法按顺序按逻辑梳理我的wandering mind,就想到哪说到哪吧。 第一个反思是:(只)运用抽象语言

我感到自己表达能力不足并意识到表达力的重要性,不仅源自现实学习工作的需要,和社交网络中意见领袖的影响力飙升也脱不了干系。我不只一次对着舌灿莲花的博主感叹:“怎么这么会讲!”“太会讲了吧!”于是暗自发力练习讲话。

但最近,一个问题引起了我的注意。我发现我把精力都集中在抽象语言的运用,但忽略了具体叙事和细节描绘。事实上,我爱的那些博主,ta们说话的魅力也常常表现在针对具体事件形成观点输出和论证,偶尔援引其他具体事件也是出于论据需要。

在传播场上,我们很容易发现,观点跑得比故事快,有些观点甚至会浓缩成迷因长久地流动在社交空间里。而那些能混得开的故事往往是以观点容器和引爆器的身份占据了大众视野。这个世界,观点已具有比事实更重要的力量,而抽象语言则作为观点的基础占据了我话语实践的绝大部分。而影片也是以这种方式展开。

话语空间铺天盖地的抽象语言是不是削弱了波兹曼在《娱乐至死》里对批判性思维丧失的担忧呢?当然没有,事实上,它和李普曼在《舆论》里提到的“象征符号”遥相呼应,以抽象泯灭了那些具体生动复杂的情境、细节和差异,以口号式的单板逻辑满足了个体对“独立思考”的情感需要。

因此,这也向我发起了警告,尝试去说一些具体的故事,以民族志而非大数据的方式去看一看这个世界,甚或在一些时候抛弃掉旁观者的角色,只进入其中说话。(当然,这条除外🤥)

第二个反思是:我在意点赞吗?

即使我对点赞也很敏感,享受着每一个认可带来的即时满足,但我似乎不完全被点赞影响着心情。事实上,由于更多人活跃在朋友圈,偶尔发一条动态时,甚至会因为要点掉消息提醒而感到疲乏。对于公共空间的讨论也如是,在一些过度投入的评论回复的来来回回里,我会迅速感到疲乏。而其他一些骗取我注意的策略:通知栏、奖励性广告都对我无效。我玩不来抖音,也不喜拼多多(恨死它总因误点而自动下载)。而在我沦陷的那些平台里,我也时常产生厌倦到不想继续浏览的思绪。

但是,我不耍手机,还能做什么呢?不论我关不关注点赞,长期活跃在虚拟空间里确实挤兑了我对其他活动的意愿和想象。现实连接的淡漠致使我仍然会不停刷刷刷,刷到眼睛不得不合上。手机不再令我快乐,却也剥夺了我从其他活动获取快乐的能力。

所以,如何去拓展现生,并激发出长久为体验过的愉悦(不依托在社交平台上的炫耀),是亟待实现的下一阶段。

第三个反思是:两极化

前两天刚因为路温1900的视频跑去知乎和别人battle“女拳”在现阶段是否应该取缔。我倒不是想借这个例子说明两极化确实存在且日渐严重,而是好奇,沟通的可能性。事实上,任何一个观点呈现在面前,都是在trigger你脑海里的过往经验和认知,但在虚拟讨论空间中,我们对另一个人的脑内图景一无所知。是否存在一些最基本的共性,可以为双方能彼此听懂的讨论提供策略?

这个问题也让我想到了robber's cave那个实验,被随意标签的两组儿童在交往过程中自发产生了对本组的高认同感和对另一组的憎恶,而促进两组儿童collaborate的唯一办法是树立起第三方敌人。啊哈,牛嗷。我们在多大程度上是自主选择了某一共同体,又在多大程度受到共同体支配行为与思想?我们应该如何培育自主性,如何抵御这种支配?还是说我们的确可以利用共同体实现一些抱负?

这可太复杂辽,在这里仍只触及了边边。脑容量不够,还没法顺畅地阐释这个问题,再讲下去又要头痛咯~

就这样吧。

结束

 3 ) 拿起手机,二十分钟没了;刷了几天手机,成傻逼了

《the social dilemma》(中译《社交陷阱》)里引用了一段儿新闻报道说,崔斯坦被认为硅谷里勉强有点儿良心的人。这部纪录片以他的一个项目为主线,讲了最近十年勃兴的社交软件对人类个体和整个人类文明的侵蚀。这些社交媒体公司(FB,twitter,wa,insta等,是不是应该感谢上帝,大部分在中国打不开^_^)只有一个目的就是盈利,赚最多的钱。在自由市场下,公平竞争的环境里,发展的硬道理是必须赚更多的钱。在这唯一指挥棒下,硅谷这几家大公司无所不用其极的利用人类的心理弱点,从个人身上攫取最大量的注意力和时间,打包卖给广告投放商以盈利,同时,连自己也没料到,无形中把人类社会推向非黑即白的两极。前半部分注重分析算法(人工智能+大数据)和经营策略对一个个体的影响。后半部分讲了对整体人类文明的影响:民主制度,人和人之间的关系,人和人之间的交流。

首先是人类个体部分。

其中一个硅谷投资人说,上一个世代,硅谷主要产生硬件和工具软件,例如苹果电脑,photoshop等等。她们是靠卖工具给你而盈利的,这个世代,主要收入靠广告投放,有产品吗?有,这个产品就是用户,每个人--你的时间,注意力,你任何的私隐--都被打包卖给了广告商。工具的特征是,工具会耐心的呆着,等你去用它,用完就关了,你用完Photoshop后不会再去把每个ps的菜单都看一遍过瘾的。现在的互联网产品(社交app)的特征是,不停的引诱你去用它,不停的抢占你的注意力,你的时间---简言之,让你上瘾,和烟酒毒品等其它上瘾品一样。结果也一样--短暂的快乐过后,你会感到疲惫空虚沮丧。

这里引述了几个前大厂主要技术和商业推广负责人,深度剖析这些产品的设计初衷,正如崔斯坦所言:一个邮件App的设计有二三十个人参与,大家对于字体,颜色等争论不休,从来没人想过它作为产品的伦理性--即会不会令人上瘾。twitter和FB的产品经理则直言他们背后的设计逻辑的理论基础就是心理学上的成瘾理论--让人上瘾,不停刷下去。trend(相当于微博里的热榜),话题推荐,都是为你量身定做的,目的都是为了把你留住,不停的刷下去。

这里有个值得争论的点,这些大厂可以为自己辩护:自控能力不行不是我的锅啊,和吸烟一样,你愿意吸烟吸死不是我卖烟的初衷啊。FB的产品经理说当初我们发明点赞按钮主要是想传播正能量,但有人因为获得的赞没有别人多得了抑郁症我们真的是没想到啊。其实这个争议正是崔斯坦和本纪录片想要推动的方向:立法。各国都有关于禁烟不同的条例,吸烟年龄,场合等立法积极干预。还有加税这种消极性的控制。社交网络也急需相应的立法。我记得是FB的一个人说,我觉得已经赚了这么多钱了,还干这样的事儿实在是不应该就辞职了--他可以辞职,但公司还必须往前开,别人会填补他位置继续干这种见不得人的事儿。

个人经验里,我记得刚有互联网时,web1.0时代,已经感受到互联网对时间和注意力的影响了。这种场景大家都不陌生,打开浏览器本来是为了查一个问题,最后半个小时过去了,你已经忘了当初为啥要打开浏览器。所以多年来我一直保持着一个习惯:去任何网站都是直接输入网址。google提供的界面也足够简洁,就是想你专心搜索你想要的东西,不要被任何事干扰。打开百度看看,首页已经一堆干扰了。

(以前google连这个也不会放,现在也蠢蠢欲动了)

百度的入口全是干扰,就是不想让你安静的搜你想要的东西

和现在相比,web1.0时代还没有人工智能,还是人类主导的互联网,网页体现的还是编辑意志,没法精确的猜你的好恶,更没法潜移默化的设置议程改变你的想法塑造你。你最后在网上流连忘返的最坏结果不过是杂乱无章的看了一些资讯而已,最多是浪费了点儿时间,没有其它伤害了。

而现在这个算法主导的世界里,你会发现你不仅浪费了时间,把自己的时间和注意力卖给了广告商。还潜移默化的被人工智能变成了个傻逼--这变化非常令人震惊,但的确是事实。把人变成傻逼其实并不难--该片举了”地平说“的例子,pizza门的例子。其实各种阴谋论都有人信的只要你能系统性的长期的接触同一类资讯最后都能自圆其说的被洗脑洗成个傻逼,完全不用逼迫,不用任何权力和金钱控制,就能做到。

后半部分主要说了对社会的影响--社会是由个体组成的,影响了个体必然会影响社会,这部分的展开有点弱,但结论是没问题的。AI导致了新闻农场,假消息的传播速度更快了。阴谋论盛行,人类的表达越来越诉诸情绪,走向非黑即白的极端,商业行为利用这些特点来卖货,政客利用这一点来拉票,这是一个比赛谁更极端的世界,稍微中性一点儿,温和一点儿的理性的声音已经被毁灭的差不多了。关于阴谋论片中举了个“pizza 门”事件,非常经典的阴谋论:指向政府高层(因此绝对保密,你不可能从正常媒体渠道看到),内部员工透露的资料(我是pizza店的XX, 这事儿是真的,我亲眼所见,但不敢说,说了会丢工作等等)。这种阴谋论传播的结果就是把水搅浑,大大削弱正常新闻的传播。这种玩意儿能大行其道主要还是因为社交媒体的”即刻性“属性,黑白两极的对立也是因为时效性--在一天几刷,一刷几个字(140字)的社交媒体上,人们已经失去了深究一个问题,一个人的耐性。诉诸情绪是最便捷的。当年论坛上盖几百层楼诉诸事实的争论不太可能存在了。

在web 2.0, blog,bbs时代,你点开一个人的ID,可以列出他所有的帖子,回复,你可以快速的对此人有个大致全面的认知(起码在一个小范围内比较全面),现在这个时代能翻翻他最近几条140字内的内容已经不错了。这种“活在当下”,是为消费主义,头脑一热买买买设计的,对于了解一件事一个人是有害无益的。以前网上的争论有最基本的几个共识基础:法律框架,逻辑推演框架。这两个框架下的争论又都必须建立在事实基础上。因此的确可以”真理越变越明“。现在的争论,这样的框架不存在了,因为不可能在140字内完成充分的论述以及完备的逻辑推理过程。事实究竟是什么就更没人关心了--搞清楚时间地点人物事件都需要花时间,需要动脑子,这正是社交媒体最不想用户做的。你一学会逻辑思考就会变得理智,不会那么冲动了,我怎么卖(骗)货(你)?

现在仍在发生的一个简单例子就是川粉和反川人士,两边都觉得对方是傻逼(而自己绝对正确),这是大数据和AI运作的结果之一,所谓的俄罗斯黑客助选其实指的就是这些手段。

从广告行业来看,从没见过这样的精确:你投了收效马上呈现,甚至是可控的。以前评定一个媒体广告的效果需要动用调查公司做抽样调查,放进数据模型里计算分析,勉强能得出一个也许大家心里都不是很有数的结论:这个广告投对了还是投砸了。毕竟那个时代,人们还生活在一个真实的社会,影响销售的元素太多了。而现在呢?几乎每个人都生活在自己的朋友圈儿,自己的社交网络上,整个社会已经是个幻象,想要控制幻象改几行代码就行了。像《黑客帝国》里的情节,你想偶遇一个红裙女孩儿吗?改几行代码就能实现--这已经不是天方夜谈和科幻片,只要取得她的地理位置,推送给你你就能“偶遇”。这种全知全能的控制是非常可怕的。

人类毕竟有反思的好习惯,这部纪录片算是揭开了反思的序幕吧,接下来对应的隐私保护立法,数据使用立法可能会艰难的推进。电视媒体刚走进千家万户时,波兹曼写了《娱乐至死》警惕作为大众媒体的电视对社会的影响。和电视时代的消极影响相比,今天主动操控人的网络社交媒体更进一步了。许多人对波兹曼这种批判嗤之以鼻--电视也没把我们怎么样嘛。是的,电视没把人类怎么样,所以,换了个更狠的办法来了。

对个人而言,生活在这个社交网络主导一切的年代,首先必须有自控能力,时刻记着是你在使用工具不是工具在奴役你。需要的时候才用,用完就放下。肤浅的快乐是有代价的,电视和网络都不会使你变得更快乐,更不会把你变成更完整的人而令你人生更有意义。很多时候每个人只不过是这个时代的噪音里微不足道的一个,与其画地为牢生活在社交媒体里,不如离开网络多看书多思考多写超过一百四十字的东西。成长是痛苦的,但成长的快乐也是结结实实的。

其次,珍爱生命远离网络吧,多交一些“真实”的朋友(无论这朋友是从网上来还是生活中来),真实的朋友需要花时间真正的交流,一个真实的朋友胜过一千个点赞之交。

 4 ) 对抗硅谷,为了“楚门的世界”里的27亿人

2016年,特里斯坦·哈里斯——这位谷歌的内部道德设计师决定离职,此时的他已经意识到,Facebook、谷歌(YouTube、谷歌搜索)、推特这样的互联网科技公司为了商业利益,利用算法吸引人上瘾的产品设计,是不道德的。这已经成为:

“人类生存的一大威胁”。

他想到了对抗。实际上,特里斯坦·哈里斯任职谷歌期间,谷歌有知名的“不作恶”准则。但这一准则并没有阻挡住算法基于商业利益走向偏路。离职两年后,特里斯坦·哈里斯拉着Facebook和Google等大公司离职或在职的技术专家,建立了一个叫“人道科技中心”(Center for Humane Technology)的组织,这个组织在2018年成立,用来——

对抗硅谷互联网公司让人上瘾的设计理论。

除了特里斯坦·哈里斯,参与这个中心工作的人,还有前Facebook运营经理;苹果公司和谷歌前通讯主管林恩·福克斯;前Facebook高管戴夫·莫林;Facebook早期投资人罗杰·麦克纳米。

纪录片截图:“人道科技中心”(Center for Humane Technology)

2017年前后,很多硅谷公司的高管,感觉到了算法操持的互联网平台,出现了道德伦理危机,纷纷离开了所在公司,2020年,网飞(Netflix)公司拍摄了一部纪录片叫《监视资本主义:智能陷阱》。片中,Pinterest 的前总经理、Facebook的前盈利总监Tim Kkendall说他担心算法操纵的世界最终导致美国内战;一个从谷歌出来的工程师,担心整个互联网产业的道德沦丧……

曾与马克·扎克伯格(Mark Zuckerberg)一起创办了Facebook的克里斯·休斯(Chris Hughes)离职后多年后,批评Facebook说,“扎克伯格是个好人。但令我感到愤怒的是,他对增长的关注导致他为了点击而牺牲了安全和道德底线”。

这样严重的担忧,是什么导致的,问题出在哪儿呢?

纪录片截图:一个前谷歌员工离职的原因

01

2018年,推特CEO Jack Dorsey在一次听证会上说,12年前创办推特时,他没想到推特会变成今天这样……

这段话,与《黑镜》第五季第二集的剧情正相契合,该剧正好也是网飞公司拍摄的。男主Chris Gillhaney因为在一次和女友驾车的过程中看手机社交消息,导致车祸,女友当场死亡。当他恢复过来后,他做了一个类似UBER产品的司机,每天在这家叫“碎片”的社交网站公司楼下接客。终于有一天,他接到了一个这家公司员工,绑架了他,通过要挟这个员工,逐层上接,和“碎片”公司CEO接上了电话,而他只是想告诉这个CEO,社交网站是怎样绑架了人们的生活而导致种种悲剧的。这家CEO的回答和推特CEO的回答很相似:

我当初创办这家公司的时候,没有想到它会变成这样。

“碎片”公司CEO阐述了一种逻辑:一个产品成型后,它的走势就不再是他能决定的,每一次更新和功能改进,都是因为用户喜欢、希望得到的结果,这并不一定是一个CEO想要的。

上瘾,几乎成了所有社交App追求的东西。

《监视资本主义:智能陷阱》采访了很多前硅谷科技公司的前高管和投资人。

作为谷歌前道德伦理设计师的特里斯坦说,当年他在谷歌做邮箱设计时,意识到一个问题,历史上从来没有过50个左右的20-35岁的加州工程设计师做出一个决定,就能影响20亿人,影响他们做出从来没有预想到的想法或决定——当用户早上醒来,谷歌邮箱就告诉他,应该这样工作。工作、文化、生活的意义,都来自一个鬼鬼祟祟的第三方操纵。而谷歌内部,没有一个人想把邮箱做得不那么致瘾。

纪录片截图:特里斯坦·哈里斯——谷歌前内部道德设计师

后来他做了一个呼吁:我们这些工程师,有道德责任去审视、讨论致瘾问题。

特里斯坦发出这个呼吁后,很多工程师都赞同,然后,就没有然后了……

作为Facebook 的早期投资者罗杰·麦克纳米说,硅谷的前50年,IBM、谷歌、英特尔都制造软件或硬件产品卖给顾客,商业模式简单而良好。但过去十年,硅谷最大的公司一直在“贩卖顾客”

互联网时代以前,人们所发明的东西,都是为大众服务的,自行车、汽车、计算器,它们是简单而中性的工具;当互联网时代兴起后,技术慢慢演变为向人类索取、引诱甚至操纵并从人身上获利的工具,已经由以人为主动型技术环境,转变为以人被动接受的、致瘾操纵型的技术环境。社交媒体不再是等在仓库里等着人去骑行的自行车,或驾驶的汽车,而是会自我学习、分析、操纵、致瘾的东西。

硅谷大公司的高管们就很警惕这个问题,比如比尔·盖茨和史蒂夫·乔布斯的小孩,童年就被要求与电子产品完全隔离。

这正是《纽约时报》2018年的一篇文章所说的,“技术专家知道手机的真面目,所以他们很多人决定让自己的孩子远离这些东西。”

雷慢曾说过,互联网是一个喂养型的社会。这种喂养是经过大数据分析、机器学习决策后,推送给人的。

这也是马克思、弗洛伊德等人对“异化”一次观点所说的,人作为客体被动地接受体验世界和自身;“物凌驾于人之上”。就像系统算法凌驾于外卖快递员之上。机器流水线凌驾于工人之上一样。

02

现在,互联网公司提供了大量的免费产品,FaceBook、微信、抖音、推特,大家都不为使用的社交产品付费。为这些社交App付费的是那些广告商,广告商就是社交App的顾客,而用户成了被销售的商品。这就出现了一种现象:

如果你没有花钱买产品,那你就是被卖的产品。

所以FaceBook、推特这些公司的商业模式就是,怎样让你最大程度的上瘾,花更多的时间在这些App上,付出你人生的时间。

人生值多少钱呢?

哈佛商学院教授Shoshana Zuboff被采访时说,在商业上,FaceBook、推特们为了卖出更多的广告,需要给与顾客确定性,所以,商业广告卖的就是确定性,这个“确定性”就来自用户上瘾背后的“数据分析”。

纪录片截屏:大数据可以记录用户在某张图上停留了多长时间,来判断用户对那种图感兴趣。

这就是纪录片标题所说的核心:监视资本主义。

为了获得数据,这些公司需要监视用户去过的每个地方,每种喜好,每种行为数据,无限追踪、分析、评估,无限逐利。

你喜欢看NBA的视频?好的,在你看下一个同类视频前,给你插播一条篮球鞋的广告。

纪录片截图:算法模型会给用户画像,这个画像是由无数的行为数据建立的。

这些数据不用人看管,机器可以自动深度学习,给出预判,这也是推特CEO所说,为什么这些产品成了当初他们所没想到的样子。

但高管们做了什么呢,预判人们行为轨迹的模型是他们做的,能够自动学习的程序代码是他们写的。

这一切都为了一个确定性:尽可能成功的将用户卖给广告商。Shoshana Zuboff将这个市场称为:

从未出现的、最大的人类期货市场。

过去我们交易猪肉期货、钻石期货,现在人类也成了期货。

上瘾带来的后果是,将你还没想到的部分,用算法推送给你,使它们成为你思想的一部分,还让你觉得这是自己所想的。

FaceBook、UBER等公司的高管都曾在斯坦福大学上过这样一个课程:怎么用技术劝服用户?这类行为被称为:

劝服的艺术。

这是一种极端刻意的、对人们行为进行设计的行为。用户的每一次下拉或上拉刷新,都是一次算法的重新推送。它们深入脑袋里,植入一种无意识的习惯,让人的脑袋更深层次地被编程。

FaceBook曾做过一个“海量规模蔓延实验”,测试用FaceBook上的潜意识信号来让更多人在美国中期选举投票,实验结果是:能。

这种影响并不会触发用户的意识,而是一种潜意识,这意味着用户根本不会察觉。

这种实验,谷歌和FaceBook每年要在用户身上做很多,用户就是实验小白鼠。

03

各种致瘾的大数据分析、算法推送,使美国Z世代的年青人成为了牺牲品。

纽约大学心理学家Jonathan Haidt提供的数据显示,大概在2011年至2013年前后开始,每年因为割腕自残而住院的少女出现了剧烈上升的趋势。

纪录片截图:近20年,美国每年少女因手机上瘾而自残与自杀的趋势

一个常见的现象是,人在孤独、无所事事的时候,总要找点什么事情做。如今这个空隙被算法推送的网络社交、短视频等占据了,人处理情绪的能力就退化了。

Cathy O’neil是一个大数据科学家。她说,算法是内嵌在代码中的观点,它并不是客观的。算法会被成功的商业模式引导、优化。

通常,在一个像FaceBook这样影响数十亿人的公司里,能明白某个程序算法工作逻辑的就几个人,相对于70多亿的人类来说,可以看成:人类失去了对算法系统的控制。

罗杰·麦克纳米说,这就像一个27亿人的《楚门的世界》,每个人都有自己的世界。没有人发现自己所在世界的本质真相。当然,实际上,活在“楚门的世界”里的人可能更多。在中国,类似的产品有今日头条、抖音等。

算法的每一个推送,都代表着一种商业利益。

在中国,中老年人喜欢看的一些鼓吹、煽动的假新闻视频, 并不是制作者一定相信这些事,而是假新闻传播比真新闻更快,流量能给他们带来商业变现,免费看视频的人,才是被卖的商品。

特里斯坦·哈里斯发明了一套理论:技术超越人类的第一个阶段点是超越弱点,其结果就是上瘾,上瘾会激化愤怒、激化虚荣,压制人类天性,挫伤天性。第二个点是超越人类的智慧。

算法喂养的世界里容易出现种种激化的矛盾,每个人的意见越来越不相容,因为每个人都从不同的推送里了解信息,而这些信息、知识又因为推送不同而不同。当两个因为同一个社交网站的鼓吹而同时出现在街上游行的美国人,对同一件事情产生争论的时候,他们容易发现:

哦,原来我们并没有看到相同的信息。

这种激化的分歧的一个知名例子就是“地球是平的”论,这种论调在YouTube上被推荐了几亿次,因为有的人喜欢,算法每天都在变着法地给人们推送“地球是平的”的内容,“地球是圆的”则被他们当作阴谋,而且越来越多的人相信了这种阴谋论。

这个事件的高潮是,今年2月,因为想证实地球是平的,美国发明家迈克尔休斯在用自制的载人火箭进行发射测试后,坠地身亡。

04

算法只推荐给人们感兴趣的东西,它并无道德感,它唯一的动力是商业利益,它可以一而再再而三地给人们推送虚假、阴谋论的信息。今天可以让人相信地球是平的,明天就可以让人相信喝消毒液可以杀死新冠病毒。

2016年,美国有成千上万的民众相信着一个假新闻——一个有民主党高层参与的地下娈童犯罪组织隐藏在一家华盛顿的披萨店,算法在这个事情发酵中,不停地推荐人们加入“披萨门”小组,直到越来越多的人相信它真的存在。

事件的高潮以一个男子拿着枪要进入披萨店仓库去解救“被迫害的孩子”、半路被警察逮捕了而告终。

在美国,疫情期间的谣言,和算法的推波助澜,加剧了谣言传播,个体各自为政。人们在街上游行,有的喊“新冠疫苗是阴谋”,有的喊“人类基因不适合新冠疫苗”。每个人执着于自己看到的信息。一个政府官员将其称为:

新时期的部落主义。

在算法推送的信息浸染下,2017年的一项皮尤研究中心的数据显示,2017年民主党和共和党的政治分歧达到了20年来最高点。

在缅甸,2017年以来FaceBook上出现了前所未有、情绪高涨的煽动性言论,这些言论被不停地推送给那些喜欢看的极端民族主义者,催生了严重的犯罪行为、种族主义迫害,并导致了70万罗兴亚族MSL逃离了缅甸。

纪录片截图:缅甸罗兴亚族MSL大逃离

《崩溃》一书作者贾雷德·戴蒙德阐明了社会是怎样崩溃的:一个社会一起推动一种不稳定、消极状态的前进,最终导致了社会的崩溃。贾雷德·戴蒙德的学生曾向他问出一个非常有意思的问题:

17世纪,复活节岛生态环境崩溃前,砍倒了岛上最后一棵树的那个人,那一刻在想什么?

我们是时候也思考一下这个问题了。

本文来自“新金融洛书”,欢迎关注公众号:

 5 ) 结构性的问题:资本主义

“没有人是坏人。”智能陷阱的制造者也如我们一般是活生生的个体,带着人道主义的期许设计出“点赞”、“推荐”,但这些设计在发展的过程中失控了,成为让人上瘾的一个个陷阱,甚至陷阱设计者本身也会掉入其中。可见真正出问题的不是人本身,而是背后结构性的根源。正如片中所提,当今驱动或者说运营这个世界转动的的就是经济奖励,所以任何问题的解决方案一定要是符合经济奖励的,而经济奖励就是资本主义追求的最终目的。所有这个结构性问题就出在了马克思不断抨击的资本主义制度上,而智能陷阱只是再一次映证着资本主义本身摇摇欲坠,和过去资本主义导致的经济危机、工人罢工游行有着相似的本质。

同时,片中所提到的立法的解决方案,在资本主义国家也很难得到真正意义上的实现,因为悖论在于政府需要制定出不利于资本积累的法律条款,但却是资产阶级控制着政权。

片尾Harris说“我们要推翻这一切。”太笼统也太无力了,甚至搞不清的是,我们真正应该推翻的,是技术和工具本身,还是背后那个操纵技术达到目的的制度呢?

摘抄启发点:

1.极化

-技术什么时候会超越人类取代我们的工作,比人类更聪明?技术超越人类的弱点时。

这个超越的点就是上瘾。两极分化、激进化、激化愤怒、激化虚弱,一切的根源,它在压制人类的天性,在挫伤(checkmate)人类的天性。

-想象维基百科的个人化,脸书油管谷歌就是这样

-27亿的楚门的世界:

你觉得楚门为什么到现在都从来没有接近,发现他所在世界的真实本质?

-皮尤调查:个人和政治两极分化达到20年来最高

-人们总是以为算法推荐的是给他们真正想要的,但其实不然。算法其实是在试图找到几个非常强大的兔子洞。试图找到哪一个兔子洞最贴近你的兴趣。

-PIZZAGATE阴谋论在社交媒体传播的典型案例。

-我们创造了一个偏心于虚假信息的体系,并不是因为我们想要,而是因为虚假信息比真实信息能让各个公司赚到更多钱,真实信息都很无聊。

-如果你想控制你们国家的人民,从未有过像脸书这样有效的工具。

最明显的案例:缅甸发生的事情。

脸书真的给军人和其他不良人士一种控制公众言论的新手段,并协助煽动针对罗兴亚族穆斯林的暴力,已经导致70万罗兴亚族穆斯林逃出这个国家。

-远程控制战争,俄罗斯对2016年美国大选的干预。只是将合法给广告商与用户使用的工具用在了邪恶的地方。

-部落主义。

-技术并不是人类存亡的威胁,而是技术能把社会中最坏的东西带出来的能力,社会中最坏的东西,才是人类存亡的威胁。

-我们很可能会因为故意无知毁掉我们的文明。

-如果你不知道你身处矩阵中,你怎么从矩阵中醒来?

立法:

-经济奖励可以说运营着世界,所以这个问题的任何解决方案一定要符合经济奖励。

-交数据收集和处理税——不掌握所有的数据。

-“没有人是坏人”。点赞按钮的全部动机:我们可以在世界中传播积极和爱吗?但时间快进到当下,青少年会因为没有得到足够多的点赞而抑郁或者会导致政治两极分化。

-我不认为这些人的动机是邪恶的,只是这个商业模式有问题。

-我们应该接受的是公司是要挣钱的,但不合理的是,当没有监管规定竞争,公司在充当实际政府部门,然后他们说“我们可以自己监管自己。”

改进:

-推翻这套系统

-是批判者驱动着改进,批判者才是真正的乐观主义者。

-你在用点击去投票,你点击钓鱼网站,你就是在创造一个经济奖励延续这个已经存在的体系。

-在推特上关注你不认同的人。

-在你分享之前,查找一下事实,思考一下信息来源。

 6 ) 認識這個世界

看完這部片,渾身起雞皮疙瘩,我歸咎的理由是真正意識到目前社交媒體對於社會無法衡量的負面影響,但糾結的是,我需要這樣的社交媒體提供一種存在的意義,不然就會陷入一種虛無主義跟矛盾之中.

片中的訪談提到:Pinterest的設計者,設計Pinterest更人性化,更讓人願意去使用,但交換的是自己也在無形中被影響,我是個生意人,我的工作就是讓我去影響其他人更願意購買我的產品,但是但是,我需要更了解我的消費者跟這個世界的現實,以去達到我個體的最大利益,而社交軟件是一個非常好用的工具,也是一個非常Powerful的工具,因為我在獲取這個世界的更多資訊的同時,我同時出賣了我自己的靈魂.若我不使用社交媒體或其他工具,我會更困難的達到我個體的最大利益,例如金錢,但我在使用社交媒體的同時,我同時背負社交媒體帶來的負面影響,例如無意義的碎片畫資訊充斥著生活,如果我不接受這些無意義的碎片,我又如何獲取有用的資訊.

這是一個非常衝突的事情,在看這部片之前,我感覺到社交媒體跟網路有些不對勁的地方,但我說不出來那是甚麼,我在使用的同時獲得了短暫的快樂,但糾結的是我知道這對我長期的影響是負面的,對於獨立思考的扼殺.我花更少的時間去閱讀跟觀影,而選擇獲取更短暫的快樂跟資訊,也許人類這種生物就是這樣被設計的,不論是被上帝或是被進化論設計的,我們更傾向獲取短暫的快樂,但是人類這種生物,之所以還沒把自己搞死,是因為我們有一定程度的自省能力,我們會發現短暫的快樂無法長久維持,但現在的社交媒體和網路是一個有史以來最強大的敵人,遠大於電視報章雜誌所能企及的地方.

我之所以描述失去社交媒體會導致虛無主義的原因是,在我的認知裡,例如薩特的存在主義提供了一個讓人類找到意義的方式,我們在一張白紙上作畫,人生結果就是我們最後完成的畫作.不論我們滿意於否這個畫作,這是人類生存下去的動力,從另一方面來說,一種不斷的進步感讓我們感覺到我們不停地作畫把畫作畫得更好,而我們從中獲得了成就感使自己不再詢問存在的意義是甚麼.但失去社交媒體導致了我無法和現在21世紀感到連結.失去連結很大的概率會導致我在社會認同的成功上失敗,而我生在這個社會中,我無法避免的以某種形式認同了社會定義的成功.失去了這種認同感,也會導致自己找不到生存的意義.

這是一個雞生蛋蛋生雞的問題,我覺得這個問題無解,而是如何在這個無解的問題中,找到自己舒適的位置,做完自己最滿意的畫作.

結論:我需要找到一個更好的模式,把自己放置在這個資訊爆炸的時代,能在其中找到自己的位置,減少網路對自己的負面影響,而取的更多網路對自己的正面影響,我同意網路或社交軟件是好東西,如片中所說,當初設計這些東西的人,更多是為了更美好的社會,而無形中創造了一個怪物,這個怪物是有能力摧毀幾千年來創造的文明,我們如何利用這個怪物的能力創造更美好的世界,同時限制他能摧毀其他一切美好的事物,很多人認為我們在往1984的世界狂奔,我卻認為我們正在往美麗新世界狂奔,一個我們情感上不想要的烏托邦,我不是個完全理想主義者,我清楚知道,所有人的共同最大利益,就是我的最大利益,如博弈論所討論的,但個性導向導致我是一個精緻利己主義者,我可能無法改變,我也不想改變,我只想把自己放在這個舒適的位置,完成我自己期許的畫作.

 短评

“在整个人类历史中,每次有事情变好,都是因为有人站出来说:“这太蠢了,我们可以做的更好”。是批判者驱动了改进,他们才是真正的乐观主义者。我们正飞速走向毁灭,需要一个奇迹才能让我们回头,这个奇迹就是集体意识,再足够的公众压力出现之前,这台机器是绝对不会回头的。”

8分钟前
  • 亚比煞
  • 力荐

突然觉得,我如果能活到八十岁,说不定可以亲眼看到这颗星球毁灭……

11分钟前
  • 西决
  • 力荐

前半段谈的是个人的成瘾性,后半段谈到了对社会和政治的影响,甚至还提到了香港问题受到了推荐算法的影响,实在是强烈推荐的纪录片。推荐算法让人类看到更多他想看到的信息,而不是正确的信息;当算法没有被操纵的时候,假象会被传播和放大的更快,社会群体的分化会更严重;当被操纵的时候,它会成为比以往更高效的舆论控制工具。

16分钟前
  • 流浪四方
  • 力荐

三星半吧。这个片子一边谴责社交媒体蛊惑人心,一边也通过背景音,模拟场景,动画,拼命传输自己想传达的意思。有点讽刺

19分钟前
  • C&TUTU
  • 还行

影片翻译成”监视资本主义“太符合中国上层领导了,其实就是讲了社交网络怎样赚钱、怎样改变和监视用户、大数据统治的,其影响会延伸和触及到人性、进化、政治竞选等领域。但人类历史中的谎言、煽动、阴谋、阶级等现象,并不是网络时代就特有的,只是网络时代让这些现象具有更大规模、更快的反应而已,但不能把原罪归于网络。

20分钟前
  • 炸酱面
  • 还行

中文翻译的标题线路很正确嘛

25分钟前
  • 里拉
  • 力荐

“是批判者推动社会变得更好,批判者才是真正的乐观主义者。”

26分钟前
  • 烟雨如花转
  • 力荐

我一直是更亲近Yuval Noal那种对社交网的防御心,最近他跟唐凤的对话中,唐女士更接近Bill Gates,她们对Code is law的信任是基于他们对科技的掌握,略傲慢的盲目。人类善于发明创造工具,却总是不能智慧的使用好它,socialmedia被创造出时的工具属性越来越模糊,连接一切变成绑定一切,我们都在失去个人专注力的同时被训练的自动贡献出时间来替科技公司创造价值。见惯了友邻放弃包容,讽刺刻薄的针对陌生人,哪怕对方只是没把咖啡馆当图书馆对待产生噪音。我们大部分人,都忘了我们用社交网的初衷了,我们只是停不下来了,这不对,要自省。

30分钟前
  • 姜小白
  • 力荐

能请到离职的脸书 谷歌 twitter高管或功能创始人来搞一部揭露社交APP之罪的纪录片确实牛逼!!看影片开头好多工程师已经在担心律师函了。 我们以为的AI危机(人工智能)是电影中类似机器人入侵的画面,其实,人类早已被AI奴役好几年了,它们以智能手机APP的面貌出现在我们生活中,吃掉我们的时间,夺取我们的注意力,令我轻信、空虚、偏执甚至被利用…… 就连创造出这些APP的工程师们——这个AI统治者的创造者们都承认有手机上瘾症。if you are not paying for the product, you are the product.You would not realize it's a Matrix if you Are in the Matrix.

31分钟前
  • 七姐Claudia
  • 力荐

在网飞纪录片序列中算不上惊艳,内容都能想得到,有个别地方倒是有启发。其实社交媒体不是重新发明了人性,只是顺应人性被发明出来。

35分钟前
  • frozenmoon
  • 还行

就提一个capitalism会死吗

37分钟前
  • soyoungsogone
  • 还行

互联网是人类文明的硕果还是浩劫?这是一个问题。互联网发展太快,而互联网用户运用它的智慧却太慢。它几乎成为现代人剪不断的脐带,每个人都以为这根脐带为我们输送养料,却很少发现它也在吞噬我们的时间,消耗我们的生命。互联网背后是不断将我们异化的数据和图形,是将用户打造成韭菜的智能工具,而你我是它们手中的行货。尼采说,“在自己身上,克服这个时代。”然而,这多么困难。最有意思的是,看完这部纪录片后,我发布的信息也会成为互联网内容的一部分,不小心浪费了别人的时间。

38分钟前
  • 尘飞扬
  • 推荐

最讽刺的是你之所以能看到这部片子,多半也是因为它被网飞自己的大数据和算法推到了用户主页。这种感觉就像是有天迈克尔·贝跑出来拍了一部【电影艺术是如何被滥用CGI特效的好莱坞大片毁掉的】纪录片一样。

39分钟前
  • Laplace Demon
  • 推荐

某种existential crisis的压迫感沉重到可以将其归类恐怖片的程度:迫真humanity的一个至暗时刻。毋庸置疑新自由主义的放任默许了它们的野蛮生长。日渐两极化割裂的民主世界,中产的消亡,功绩社会里的精神暴力,抑郁及自杀率的攀升,ultra-right/left异军突起众多吊诡背后,总能追溯到科技巨头的鬼影。今年的BLM可谓一个高潮,空前的社会撕裂,内战的恐惧开始在北美大陆扩散,然而那种担忧早已经在太平洋对岸成为了现实,诸如废青和武统的呐喊此起彼伏,落入集权独裁手里的社交媒体正上演着数亿人的《楚门的世界》。

41分钟前
  • 帷野久
  • 力荐

最后还是把问题还原到商业模式和经济上去了 也就是说 不是简单呼吁大家自己控制社交媒体的使用就可以解决根本问题的 不过很有意思的是… 看完片子之后 大家还是屁颠儿屁颠儿跑到社交媒体上来打分了😂 这和竞争关注的结果其实没有本质上的区别吧 人生而愚蠢...也是没办法的事

43分钟前
  • ripley
  • 力荐

朋友圈已经关闭了好几年,也不用微博和fb的我感觉自己还是有点觉悟的。

46分钟前
  • 席德
  • 推荐

一边抗拒一边沉迷,也是无解了。

48分钟前
  • 桃桃林林
  • 推荐

聚众吸牍哪家强 网飞找来这群人一个劲戳别人脊梁骨 没种把自己的5秒跳转下一个视频算进去

52分钟前
  • Robo Captain
  • 推荐

通过海量的数据加上对用户个体的行为记录,最终用户个体不再特殊。你的行为可以被预测,你的心理已被掌握,你已经无所遁形。在IT巨头面前,你只是一个可被盈利的工具。 --你以为你想买的东西其实是巨头想卖的东西,你想做的事情是巨头暗示你做的。下篇讲述 在网络环境中,虚假的信息传播的更快,其中人工智能的推荐起到了加速作用。 推荐系统的智能化是的信息发送方变得极化,同时是的接受的信息变得不再全面的。。。。

54分钟前
  • W.史密斯
  • 力荐

可能是今年 Netflix 最好的一部纪录片,无论是 have no clue 的大众还是互联网业内工作人员,都能从中得到新的启迪。一段虚构故事结合湾区大佬们和学者们的访谈形式也耳目一新。Just fucking watch this right now!另外好多差评真是男言之瘾重灾区…

58分钟前
  • 椒盐豆豉
  • 力荐

返回首页返回顶部

Copyright © 2023 All Rights Reserved