首页 > 正文

面对算法社会挑战,警惕成算法“囚徒”

2022-08-03 10:42 | 来源: 中国新闻出版广电报
【字号: 打印  
Video PlayerClose

  彭兰简介

  中国人民大学新闻与社会发展研究中心研究员,中国人民大学新闻学院教授、博士生导师。先后出版过20余部著作或教材,获全国优秀博士论文奖、吴玉章人文社会科学一等奖、高等学校科学研究优秀成果奖(人文社会科学)二等奖、北京市高等教育精品教材奖等多项奖励。

  今天算法的应用正在全面普及,可以说,只要上网就离不开算法。但是算法究竟从哪些方面、以何种方式影响着我们的信息接收方式?人们在享受算法带来的便利的同时,人的认知、判断与决策是否会受制于算法?我们反思算法社会的“囚徒”风险,是否意味着对算法的拒绝?面对网络时代因算法而引发的上述问题,《中国新闻出版广电报》记者近日采访了专注于新媒体传播研究的中国人民大学新闻与社会发展研究中心研究员、中国人民大学新闻学院教授彭兰,听她为我们分享如何才能更好地应对算法社会的挑战。

  推荐算法是否只能顺从用户惯性和意愿值得思考

  《中国新闻出版广电报》:近年来,新闻传播学界对于算法的关注越来越多,尤其是随着大数据、人工智能技术的发展,算法已经开始全面进入并影响着我们的生活。那么,在您看来,对于算法的开发和研究是否也需要更广阔的视角?

  彭兰:推荐算法之所以在今天成为一种互联网广泛应用的技术,其核心动力在于解决海量信息(或产品)与用户之间的供需适配问题。对于用户来说,是为他们发现符合自己需要的信息(或产品);对于生产者来说,是为内容(或产品)找到合适的用户。

  从内容(或产品)推荐角度看,作为中介的算法本身就是为用户提供一个过滤器。信息爆炸的今天,信息过滤是必然的选择。即使是传统媒体时代也会对信息进行过滤,在媒体上构建拟态环境。如果媒体对内容的公共性有合理的评估,秉持“客观”“平衡”等立场,那么,媒体的拟态环境有助于人们全面了解现实社会。专业的媒体在进行信息过滤时,是从社会环境传达与感知角度判断人们应该知道什么。

  但在目前的算法设计中,内容推荐算法主要是参照人们的习惯和相似人群的兴趣,也就是关注人们想要获得什么,在某种意义上也就是在顺应人们的认知心理中惰性的一面,顺应甚至可能强化人的选择性心理。虽然从信息获取效率角度看,这样的算法可以帮助人们以更小的成本获得与自己偏好、需求更吻合的信息,但是,推荐算法是否只能顺从人们的惯性与意愿,是一个值得思考的问题。

  如果用户的惯性被算法固化为长期行为“规程”,就会使用户面临的信息环境日益封闭与趋同,人们在新闻选择、解读与利用方面的主动性会被不断抑制。

  未来的算法除了要准确定位用户当下需求外,还需要有两个方向的拓展。一是可以预测需求的自然转化方向。人们的需求会有自然的变化过程,外部环境变化、个人状态变化等,都可能导致用户信息阅读的偏好等发生一定的转移。算法需要能预测人们需求的转化方向并适时做出调整。二是人工激发新需求,用户的阅读总是偏向个人兴趣的,但一些他们忽略的公共性话题能帮助他们了解更广阔的世界。算法不仅要满足个性化需求,也要引导用户关注公共事务,激发他们对公共信息的兴趣。此外,从破解信息茧房角度看,算法也需要通过对用户阅读线索与逻辑的深层了解,激发出他们的新兴趣、新需求。

  信息传播的一个重要目标是社会整合,促成不同人群连接,促进公共对话,这就要打破个人的“作茧自缚”。因此,内容推荐算法需要兼顾个性化满足与公共整合双重目标,这也应是算法未来努力的方向。

  追捧10万+数据正引发新问题

  《中国新闻出版广电报》:除了个性化推荐算法对个体的影响,内容推荐算法也会对平台上整体内容生态产生影响。今天,在算法和数据分析技术推动下,越来越多的平台和内容生产者追捧10万+,这会带来什么影响?

  彭兰:的确,算法分发也会在整体上影响平台的内容生态。平台对流量进行的数据统计与在传播界面中的直接呈现,以及各类基于这些数据的排行榜、指标体系,造就了传播评价体系的算法化,将对内容本身的信息量、质量优劣的评价简单化为对流量的评价。

  为了市场影响力,媒体也会越来越多地参与数据的竞争,追求10万+等“好看”的数据,这也意味着在机器统计和算法计算的数据推动下,媒体人某些时候会向用户的价值判断靠拢。

  机器提供的数据反馈越来越精准且实时,它们对媒体产生的压力也会越来越大。而整个平台也可能会形成“马太效应”,那些拥有10万+数据的内容成为生产者追捧的目标,越来越多类似风格的内容被生产出来。以往媒体人的经验性判断受到来自机器的数据性评价体系的冲击,媒体也会越来越多地向数据体系倾斜。

  在整体上,算法正调节着内容平台中生产者—内容—消费者之间的关系。信息推荐算法不仅影响着个人的信息获取,也影响着整个平台的流量分布,而流量指标反过来也会影响到内容生产者的取向。算法和数据建立起了内容消费者与生产者之间的反馈回路,形成了内容平台的调节逻辑,也带来一种新的产消关系,这使得内容生产者可以更直观、直接地了解用户的需求与评价。但从另一方面看,当内容生产者被算法钳制时,他们对于内容的专业判断力也会受到抑制,一些时候也会屈从于算法计算出来的“民意”。

  在更高的层面,算法也在影响人—信息环境—现实世界的关系。在算法调节下,各类信息在平台中构建的拟态环境控制着人们对现实世界的认知,但有时它们可能偏离现实环境,或者将人们局限于狭小的视野里。

  因此,一方面,内容推荐算法需要面向内容生产者进行优化,通过算法设计让更多内容生产者生产的高质量内容得以传播,特别是使那些具有重要公共价值的内容到达更广的人群。此外,在内容推荐算法的衡量标准中,多样性有必要成为一种重要的指标。这种多样性,不仅是内容主题的多样性,还需要包括态度立场的多样性、内容生产者的多样性等。这也是新闻客观、平衡的专业价值观的具体体现。

  另一方面,从用户角度看,即使算法在未来能更好地实现内容推送的多样性、个性化与公共化内容的平衡,但如果人们把对信息的选择权完全交给算法,每天都只是等着算法“投喂”的信息,也会导致人们越来越失去自主性与判断力。

  避免被算法思维禁锢将成重要挑战

  《中国新闻出版广电报》:可以预见,智能化时代,新闻生产中的算法思维以及数据思维、计算思维等机器思维会越来越多地进入新闻业,这些机器思维在某些方向打开了人们的想象力和认识世界的新窗口,我们是否要警惕它们变成对人的思维的禁锢?

  彭兰:在智能技术发展的过程中,看上去是机器在不断模仿人类思维,实际上人类思维也可能因此越来越多地受到机器思维的影响。过度依赖机器可能导致我们原有的一些认识方向与通道被阻塞甚至关闭,我们对世界的认识趋向单调——将一切建立在数据及其计算基础上。

  不可否认,算法在判断与决策方面有很多优势,但它不能代替人自己的判断与决策。完全依赖算法,有些时候就会形成错误的判断与决策。

  算法虽然打破了人的某些旧套路,但也会形成一些新套路。如果人们的决策越来越陷入算法营造的套路,那么,人类的想象力与创造力也会萎缩。

  一个更基本的问题是,我们如何判断算法的可靠性。数据的质量、算法模型的合理性等,都会影响到算法结果的质量。基于数据的算法虽然看似客观,但其实也隐藏着很多主观因素,这些主观因素会对算法的可靠性产生干扰。

  由此可见,算法社会对人的决策、判断力带来的挑战是双重的:一方面,我们要防止把所有决策、判断都交给算法,我们要判断算法在哪些方面可以帮助我们做出更好的决策,而在哪些方面算法可能把我们带入歧途;另一方面,即使在很多时候要参照算法,我们也需要有能力判断算法本身是否有缺陷,算法依据的数据是否可靠,算法是否存在偏见,算法提供的结果是否合理、准确。在没有这种判断力的前提下,盲目依赖算法,也就难免会陷入各种陷阱。

  因此,面对一个无可回避的算法社会,我们只有提高对算法的认识与驾驭能力,才能成为算法的主宰者,而不是其“囚徒”。(记者 李雪昆)

 

责任编辑: 王小玉
贺信
010090110010000000000000011100001310649085