首页/文章/ 详情

算法权力和算法统治,算法背后什么人?

2年前浏览852

2021年的今天,算法以越来越激进的方式影响着我们的生活。

随着移动互联网的广泛普及与智能手机功能的深度开发,以人工编辑为核心的传统分发模式逐渐衰落,以算法为核心的智能分发模式兴盛崛起。“算法型”分发模式的出现和普遍应用,意味着人类开始运用人工智能大规模地解决信息分发问题,人类社会信息分发也从“人找信息”转向“信息找人”。

但主体的让渡也导致了越来越多问题的出现。要知道,“算法型”信息分发更多地建立在对于人们的直接兴趣和“无意注意”的信息需求的挖掘上,它带来的直接后果是:忽略人们必需的那些非直接兴趣和需要“有意注意”的信息,导致“信息茧房”、算法偏见、假新闻泛滥等问题的出现。

更重要的是,算法并非是单纯中立的。受到商业偏好的影响,在价值和利益的天平上,所谓的算法更容易成为利益的砝码。当我们今天接收的信息都是基于算法,甚至信息的产生也是基于算法所得出的结论,我们看似民主、自由的社会与思想,其实在根本上已经被算法“专制”所统治。当“算法为王”的价值观念已成为平台的增长极之时,对算法的导向纠偏也迫在眉睫。

2345截图20211028093243.png

被算法控制的信息世界

算法以大数据为基础,经由智能媒体对信息进行传播,算法传播颠覆了传统的传播规则和传播边界,使得服务用户成为传播的根本动因。在注意力经济的驱使下,它逐渐成为受商业利益和政治目的驱动的自动化过程。

基于算法的传播呈现出可计算的特质,后台将每个用户内容消费的行为数据,比如用户浏览时长、转发、评论等,个体属性数据以及社交关系数据进行大数据的统计和分析,进而挖掘用户的爱好习惯和社交兴趣网络,最终生成精准的用户画像,像用户推送最具个性化需求的信息。

算法推荐让编辑筛选模式下的“人找信息”变为“信息找人”,用户成为了算法架构或程序编码的价值落点。资讯分发的价值判断机制则从由编辑判断转变为由机器来决定,由此把信息内容的推送交给了“算法把关”。

算法推荐的优势显而易见。一方面,算法推荐在互联网时代高效对接了受众需求和信息。算法通过对社交推荐机制进行二次过滤,优化推荐结果,从而提升了互联网内容推送的精准度。例如,各类平台都可以根据用户的社交行为、地理位置、职业、年龄等推断出用户的兴趣点,并判断这些兴趣的重要程度或者先后顺序进行推送,从而实现个性化信息推送。

另一方面,个性化推送下,通过对数据的挖掘,原来被忽视的大量长尾信息得以被挖掘。这些非主流、个性化的产品需求,经过散落在社会各个角落中的用户的积累,能够更好地适配不同的长尾信息。这使得信息价值不再有统一的标准,不再有重要性的绝对的高低之分。

算法让信息和人能够精准和高效地匹配,这也成为互联网信息流动的核心逻辑。甚至可以说,机器算法在一定程度上决定着信息的意义、信息的流向以及受众对信息感知的方式。虽然算法掀起了传播领域的一场革命,但随着算法日渐接管了人们的信息来源,算法背后存在的隐患也逐渐凸显。

比如,算法通过精确的个性化描述打造了个性化的社区,形成了新的人际交往形式——“圈群文化”。随着圈子的粘性增强,圈子不可避免地会出现排他性。因此,社交媒体在运营的后期往往会出现“文化边界”。于是,人们在自己选择的圈子里活动,久而久之终于形成了“信息茧房”。

很大程度上,这是一种“自我”设限——用户就像蚕一样被自己吐的丝禁锢在自己制造的“信息茧房”里。长期生活在“信息茧房”之中,无疑会令用户越来越沉溺于自己的回音,在信息茧房中越陷越深。“数据化”的人将会失去对整个社会的理解与全局批判的能力,甚至会造成群体“极化”现象。

再比如,算法在描绘社会现实的同时也体现出现实中的偏见,算法依赖于大数据。显然,大数据并非中立。于是,它们可能有利于白人男性,而不利于女性、老年人、单亲父母、有色人种、非英语居民等。

事实证明,新生的人工智能推特机器人可以在几个小时内成为白人至上主义者,自动生成的标签将非裔美国人的照片标记为大猩猩。在亚马逊公司开发的一款用于筛选简历的算法中,也曾意外“培养”出歧视女性应聘者的偏好。显然,算法从受相同偏见影响的内容中学习到更多偏见,这些认知偏见经网上广泛传播后导致更为广泛的社会冲突。

当然,不论是信息茧房,还是技术偏见,都是我们能看到的最直接的算法带来的社会问题。除此之外,更重要的是受到商业偏好的影响,控制着算法的利益市场,使得算法日益沦为利益的砝码,造成几千年来人类社会所追求与构建的民主、自由的社会受到挑战和损伤。

2345截图20211028093243.png

算法背后的利益市场

当前,随着算法在信息的管理与分发领域占据了支配地位,并逐渐在把关机制中代替了传统媒体把关人的角色,开始发挥主导作用。

然而,算法由各个互联网平台组织设计,我们将信息的把关交给算法时,也就意味着交给了算法背后的利益市场。在完全自由的信息市场中,算法作为一种垄断性技术,通过技术的方式,实现对信息产品生产和消费的控制。

传统媒体时代,人们能够主动选择信息;而在算法时代里,信息的选择则由算法进行分配,将所有信息“对号入座”,根据用户需求的数据决定把关的强弱,即用户需求越多,就给予越多的信息资源。这种把关机制的运行导致信息成为一味迎合用户市场的纯粹的消费品,失去其本身的价值意义。

事实上,在互联网刚出现之时,人们也曾憧憬过:网络空间代替城市空间接管公共领域,创造前所未有的理想公共领域的可能。所谓公共领域,用德国著名哲学家哈贝马斯的话说,就是指“政治权力之外,作为民主政治基本条件的公民自由讨论公共事务、参与政治的活动空间”。

毕竟那个时候,人们所看到的,都是算法运用的无可比拟的优势——立足于大数据之上,算法通过对海量数据样本的全盘分析可能得以窥探事物的全貌,避免人类因有限的观察体验而产生的局限性,可以更为准确地反映客观世界,并尽力排除人的主观因素的影响,由此作出更为科学的判断。

人们渴望通过公共领域,得以展现自我,用社会的规则知识填补先验知识的缺陷,并与他人建立现实的联系。然而,虽然互联网极大地促进了公共讨论的发展,看似具备公共领域的基本特征,但显然这只是表象——它不是公共领域,政治权力与大企业完全有能力迫使互联网按照自己的意愿发展。

所谓的算法权力,正是指其背后潜藏着的控制算法设计和研发过程的资本的权力,技术权力只是表征而已。资本驱动下的算法权力倘若缺少必要的规制,势必倾向于将利益置于人的价值的之上。早在2015年,Facebook就因其人工智能推荐内容存在政治偏见,饱受用户对的指责。

2018年3月,Facebook更是爆发了轰动全球的“Facebook数据门”事件,8700万Facebook用户的个人数据被出卖给一家叫做“剑桥分析”的公司。这家公司操纵这些数据,最终成功地通过选举程序,使得英国脱欧、特朗普上台。从本质上看,正是Facebook为了自己的利益而不正当使用了算法。

更值得注意的是,算法决策在公权力领域的运用还表明,算法权力嵌入了传统公权力的运行,这可能使技术和权力产生合谋而存在权力滥用的风险。并且,算法权力可能会使既有的权力制约机制在一定程度上失灵。

在公共权力的长期运作过程中,算法的“技术合理性”又使其蒙上了可以巧妙避开民主监督的面纱。算法对公权力领域的介入挑战了传统的权力专属原则和正当程序原则,难以对其实施有效的权力控制,而失范的权力最终必将导致个体权利的减损。

算法的背后是谁?算法到底代表着谁的思想与目的?可能是控制新闻舆论的政党,可能是控制着互联网平台的决策者,也可能是构建算法的工程师在构建过程中加入了自己想实现的一种“统治”思想。

因此,当前我们人类所面临的挑战,尤其是在人工智能时代,在算法统治的时代,我们的信息或许越来越便利的同时,我们人类几千年所在追寻的民主、独立、左右将会在算法“统治”下,而这种“统治”的背后,则是控制算法的利益市场。

2345截图20211028093243.png

算法的统治

专制主义是一种平等的结构,除了统治者,其他人都是平等的,因为他们没有实质的政治权力。统治者的权力不受法律的制约——中国古代的封建王朝,太阳王路易十四治下的法国波旁王朝,是典型的专制主义政体——尽管律令具有一定的权威性,但皇权掌握着最高司法解释权与裁判权。

极权主义相反,虽然蔑视成文法,但它比任何政府形式都更服从法律的力量。与常识不同,它没有使权力从属于某个人的利益,而是随时准备牺牲每一个人的利益,来执行它认定的历史法则和自然法则。阿伦特把极权主义的本质概括为反文明的、反制度的、反功利的与反责任的,而这些特点,正在算法时代里上演。

极权主义是反文明的。极权主义的野蛮行径,体现在其运用恐怖进行统治的方面。恐怖不是简单的暴力,不完全依赖于低效的肉体消灭,它是一种肉体与精神层面的全面摧毁和控制。通过恐怖,宣告个人因为不符合历史需要被剔除;通过恐怖,使人整齐划一,失去个性与独立性。

极权主义是反制度的,它是一种“为扩张而扩张”运动。极权主义的兴起与民族国家的衰落是同一过程,为了使运动进行下去,需要模糊国家疆域的边界,树立一批又一批敌人,将聚焦于内部的矛盾转移到外部。

极权主义是反功利的,它用意识形态代替功利计算。这种意识形态声称能够解释一切,提供一整套关于自然与历史的逻辑,从而建立统治的合法性。

极权主义还是反责任的,它是一种宿命论。这种宿命论以理性主义为基石,声称发现了自然与历史规律,以“民族复兴”等现代神话取代传统宗教,用历史进步的目的代替个人的道德观念。

阿伦特对极权主义的思考,不只是为了挖掘出构成极权主义意识形态与政治制度的因素,更是要提出重建现代性的可能方案。她的第一本著作《极权主义的起源》,正是以政治哲学这个视角审视极权主义兴起过程的:现代反犹主义表现了公共领域的变质,西欧民族国家的帝国主义政策使公共领域瓦解,纳粹德国和斯大林时期苏联的极权主义政治意味着了公共领域的最终崩溃。

今天由算法支配的市场,呈现出来的正是这样的逻辑。虽然极权主义作为一种政体已经终结,但是公共领域被破坏的阴影犹在——资本的商品交换逻辑渗透到了公共领域,大众传媒的商业化制造了虚假的公共性,审美的庸俗化和娱乐化则消解了社会的批判意识。

消费、技术与知识崇拜席卷一切,一方面,我们越来越重视商品的符号性,通过消费获得身份认同;另一方面,我们把技术、知识这种间接经验看作认识世界、了解世界的主要方式。

我们认可的价值与观念越来越多地来自算法的信息分发而非自我实践,我们也越来越多地放弃了自发的、具有想象力的,能够体现人类尊严和自由的行动,取而代之的是被设计好的、批量生产的、可预期与控制的行为,包括人生价值和意义。

当前,算法的兴起和异化显然已经折射出技术存在的风险与非理性,而目前规制算法的具体法律规则付之阙如,放任算法的发展很可能将人类社会导向令人惴惴不安的境地。好在虽然算法有着人类无法想象的计算能力和速度,但这并不意味着算法超出人类的理解范畴,更不意味着人类对此没有充分的规制能力。

柏拉图提出过一个著名的“洞穴隐喻”:洞穴中的囚徒们头只能看见火光投射到洞壁上的阴影,因而将洞壁上的阴影当作现实本身。当其中一个囚徒被解除了桎梏,走到太阳下,他会因为光线的强烈刺 激感受到剧烈的痛苦,但他终究能够看到太阳本身。正是人的独特的价值指引着人们去追寻真善 美的生活,人类文明才能够隽永地存在和发展。

来源:陈述根本 

作者:陈根

著作权归作者所有,欢迎分享,未经许可,不得转载
首次发布时间:2021-12-04
最近编辑:2年前
行业观察
硕士 观世界,看未来!
获赞 293粉丝 31文章 289课程 0
点赞
收藏
未登录
还没有评论
课程
培训
服务
行家
VIP会员 学习 福利任务 兑换礼品
下载APP
联系我们
帮助与反馈