摘要
周末谈
算法当然不是“信息修复室”的根本原因,但像“回声室”这样的信息环境必然会促使人们加深偏见。
在北京,想要过上体面的生活,每年要赚多少钱?面对这个问题,身处不同圈层的人,或许会有截然不同的答案。上周,一名微博“大V”发出“在北京过体面的生活起码年收入要300万”的惊人之语,一时引得舆论热议。一方面,绝大多数具备北京生活经验的网友,都认为这个论断过于离谱,有浓重的“钓鱼”嫌疑;另一方面,也有一小批人似乎真的相信:一年赚300万不过是“小富”,只能维持一下基本的“体面”。
为什么会有人有如此“认知”?不排除一种可能性,即部分网民在上网时,倾向于接受特定圈层的信息,他们在“回音室效应”的影响下,只会在不断叠加、互相强化的同类信息中变得越来越自我、越来越极端。用近年流行的术语来讲,他们在互联网编织的“信息茧房”中越陷越深。正是这重“信息茧房”,为他们屏蔽掉了大众眼中的“常识”。
个体对信息选择性接收,这种现象一直广泛存在。不论读书看报还是上网冲浪,真正愿意主动倾听不同声音的人本就不多。然而,在互联网兴起、推荐算法流行之前,个人倾向并不足以将普通人隔绝于公共舆论之外。随着技术发展和业态转变,互联网上的信息分发机制,日益朝着“定制化”“个性化”的方向变化。不论是微博等社交媒体,还是今日头条等资讯平台,这种信息分发机制都将用户分隔在一个个不同的“同温层”中。这也正是许多人在这个“信息爆炸”的时代,对“信息茧房”的担忧之所在。
算法主导的个性化信息分发,一定会造成“信息茧房”吗?不是每个人都认同这点。在近日的一场学术论坛上,清华大学新传学院的陈昌凤教授便提出:“信息茧房”只是一种担忧,并非现实、难以实证,算法实际上“增加了与不同意见讨论的可能性”。在这种偏向乐观的论调看来:我们生活在一个信息丰富和多元的生活,由算法精确推荐的信息只占一小部分,不足以织成真正的“信息茧房”。从广大用户对当代互联网产品的接受程度来看,不论大多数人怎么想,他们在行动上,确实都显示出足够乐观的心态。
2018年,今日头条公布了“基于用户特征,包括兴趣标签、职业、年龄、性别、机型等刻画出的用户隐藏兴趣”的推荐算法,证明了这项技术的应用潜力。潮流既起,微博、知乎、B站等平台纷纷引入同类技术,精准为用户投放内容,很快让算法主导的信息分发机制占据了互联网行业的“半壁江山”。然而,尽管用户和企业都接受了这种转变,许多网友却逐渐发现:自己在网上越来越容易与他人争吵。不与人互动时,许多网友几乎只会看到自己认同的信息,认为全世界都站在自己一边,然而,一旦发生互动,身处不同“同温层”的人,很可能会因为缺乏共同语境,陷入“鸡同鸭讲”的怪圈。
这种信息分发方式,确实增加了我们获取信息的便利,但同时也在人群之中制造了认知的鸿沟。在算法的助推下,我们很容易找到志同道合的人,听到想听的声音。但是,如果我们总是待在“回音室”里,听着反射回来的自己的声音,又何尝不令人担忧?
此前,知名传播学者喻国明曾撰文提醒学界:沉浸在同质化的信息环境中,普罗大众更容易盲从和不思考,从而难以基于理性和质疑自主“破茧”。当算法满足用户偏好时,平台也运用这一工具,培养着用户的“黏性”与“忠诚”。在这一过程中,平台赚到了流量收益,用户却很容易陷入偏执思维的“乌托邦”。这种偏执发展得太深,甚至会让用户成为“易骗人群”,被别用有心的人盯上。
此前,多名大龄女性被被抖音上的“假靳东”“假刘恺威”欺骗,便是典型的例子。许多人初看新闻时,只觉得此事可笑——如此低级的骗局,按理不该有人受骗。然而,在“信息茧房”的包裹下,这些大龄女性并不像年轻网友一样,能站在“上帝视角”上纵览娱乐圈的大事小情。“假靳东”事件的受害者说:她们每天都能收到精准推送的靳东短视频,而且内容非常符合心意。在算法的包围下,她们获得了“靳东”每天都对她们嘘寒问暖的童话世界,因此才相信大牌明星会约她们离家出走,并为此自愿掏钱。事后,靳东对相关方提起了诉讼,但只要信息环境不变,仍然可能有人在未来被同样的“套路”所骗。
当人们可以完全依照偏好塑造自己的“世界”时,我们很容易相信自己心中已有的渴望,接纳那些迎合我们的观点。在心理学领域,有个名为“证实偏见”的理论。该理论指出:大脑会有选择地留下符合既有观点的记忆,忘掉那些相反的。即便我们有机会接受偏好之外的信息,也很可能会不自觉地将其排除掉。在这种“天性”的影响之下,就算由互联网精准推送的信息只占我们生活的一小部分,我们也要警惕那些刻意讨好我们的信息,防止心中的偏见“自我放大”。
如何改良既存的互联网信息分发机制,让更多网民在享受技术红利的同时,免于被“信息茧房”所困?对此,中国人民大学新闻学院教授彭兰认为:目前的个性化信息推荐更多强调个体或群体的既有兴趣,因此会不断强化用户现有认知,放大其被同类信息包围的概率,如果平台愿意调整算法,偶尔也能鼓励用户“踏出一步”,或许就能有助于现有困局的破解。
在这件事上,通过算法获取流量和收益的平台当然有责。以权责对等的标准来看,谁利用算法处理和推荐信息,谁就要对信息的社会影响负责。算法主导的互联网信息分发机制当然不是“信息茧房”的根本成因,偏见才是。但是,“回音室”般的信息环境,必然会诱导人们加深偏见。面对这个造成群体分化、引发舆论冲突的诱因,互联网平台、有关部门与社会大众还应共同意识到问题所在,携手化解其负面效应,营造出更加和谐的公共空间。
撰文/林树心
编辑/黄帅
中国青年报·中国青年网出品