底层表达视角下算法可见性控制机制及其风险治理
李京
河北科技大学文法学院网新系 副教授
从互联网诞生之初就被赋予去中心化、减少不平等的使命,促进媒介赋权并建构全新的公共领域。但是互联网的发展出现了令人困惑的问题,诸如数字鸿沟问题、公共空间极化等问题。而互联网如何发展取决于什么样的人在使用互联网。随着用户群体下沉且规模不断扩大,底层人口成为互联网人口结构的主要人群,从底层视角研究互联网发展成为新视域。
1 算法传播与底层群体表达的可见性
伴随着智能媒体化和媒体智能化的双向进程,智能媒体日渐成为传媒领域中的新兴力量,信息判断的价值取向转向算法计算,而被“可见性”控制的算法转向又促使人们不得不重新审视算法可见性的控制机制。可见性又被称为“社会能见度”(social visibility),是指能够被看见被他人关注以及被关注的规模。在智能算法传播技术出现之前,“社会能见度”主要用来表述具体的实体空间,就像哈贝马斯提出的在公共领域中的基于公开场合的理性言说来获取社会能见度。[1]
随着媒介技术的持续革新,社会公共空间中的社会能见度逐渐被互联网中介嵌入新的社会权力结构之中。在社会学研究中,底层群体往往无法自主决定以什么样的方式获取社会能见度,通常以“越轨”行为被媒体关注而进入媒介场域。而智能算法借助大数据对媒介生态进行重构,且随着智能技术的持续革新与深度介入,互联网空间将开启可见性控制的算法转向。算法与大数据等技术的应用,重新定义了基于数据的信息选择与挖掘标准。算法决定了内容如何分发,用户画像有怎样的特征。而依托算法完成的信息分类与排序也会影响用户的在线展示形式与程度。
2 算法可见性的控制机制
传统媒体时代的信息可见性生产通常依据新闻价值进行判断,诸如信息的显著性、接近性、时新性等。与此不同的是,算法可见性控制是基于算法价值要素。有学者将算法价值归结为平台优先级、 内容、场景和偏好四个要素。也有学者将算法价值归结为用户表达的兴趣额、用户表达的偏好、平台优先级、发布时间等方面。尽管算法价值与新闻价值的要素不尽相同,但二者都是基于“相关性”展开的价值选择。但是大数据的信息量优势让算法价值要素更加灵活多样,使得可见性的范围得到极大扩展。曾经不可见的底层群体也被算法推荐和流量池推荐被赋予了极高的可见度,甚至成为千万级网红坐拥一线明星的流量。基于算法的信息推荐,与塔奇曼提出的新闻生产常规截然不同,算法推荐系统成为可见性分配的中枢系统。[2]
当前,平台媒体成为可见性竞夺的新场域。平台主体性的分配直接影响可见性程度,平台媒体的智能技术可供性更在其中发挥重要作用,其可供性主要体现在参与的可供性、流量资源化可供性和可见性可供性。而对于底层群体信息发布的可见性而言,参与的可供性尤为关键。平台媒体作为新媒体兼具移动可供性(可定位、可携带、可获取)、社交可供性(可连接、可协调、可致意)和生产可供性(可编辑、可关联、可审阅),为底层群体参与可见性的争夺提供了有力支持。诸如抖音平台推出用于进行手机视频制作工具“剪映”,可实现美颜、滤镜、动画等效果,以及丰富的曲库资源和一键生成模版,极大降低了视听作品生产的技术门槛,为低可见性的底层群体进行赋能。此外,多样化社交功能的便于平台媒体进一步强化用户和粉丝间的互动,由此鼓励用户持续进行内容生产。
3 算法可见性控制的潜在风险
由主客观原因共同促成的算法黑箱是不可忽视的技术因素,这也使得底层群体内容生产能否获得可见性具有不确定性。基于算法的平台媒体的隐性规则具有更明显的智能化与网络化特征:一方面,平台以服务升级的名义能够对用户进行实时监控,另一方面,平台媒体将包括算法有关的信息都不予以公开,用户对算法技术的了解甚少。这就使得算法在技术应用中忽视人的主体性而唯数据论,不可避免导致算法偏见的产生。算法的运行机制具有不可见性,在无形之中通过分类、塑造、治理控制我们的生活。同时,技术的不确定性不断向文化、心理、制度渗透,带来技术风险,既涉及主观意识层面也涉及客观事实层面。
算法推荐是依据程序指令完成,在这个过程中忽视了公众责任意识与人文价值判断。而媒体平台的内部架构也为负面文化的蔓延提供了温床。算法可见性控制的潜在风险不仅涉及平台媒体的信息传播和内容生产,还关涉平台与社会的互构关系。例如,“记录美好生活”、“你关心的,才是头条”等平台媒体的口号看似将平民化表达放在首位,实则是在一定程度上体现了自身的利益相关项。在依托算法完成信息排行与推荐的过程中,用户信息及隐私存在泄露被滥用的风险,算法歧视及偏见层出不穷。机器算法的可见性控制尽管是技术层面的应用,但也不可避免存在算法工程师的价值嵌入,模糊人的决策过程,这一过程极易形成信息误用及认知偏见。而在这一过程中机器本身无法对隐藏其中的价值进行分辨,反而会二次传播并放大既有的歧视和偏见规则,社会偏见在这个过程中融入算法的运行和设计过程,在用户日常使用过程中形成偏见循环。
4 算法可见性控制风险的治理路径
算法可见性控制的风险已经成为无法回避的社会议题。欧盟关于算法治理的规制坚持以人为本,强调算法向善引导造福社会。同时,我们也应该意识到算法可见性控制的成因是多重因素共同作用形成的,要认识到算法技术的本质仍然是一种社会化信息技术,所以要按照技术去中心化的理念,从多维度综合考量构建对人类负责且友好的算法机制。在这里首先要明确的是,算法能够运行的基础是数据,如果从一开始就是基于非正义的原始数据展开运算,必然会掺杂着算法偏见,尤其是对底层群体的信息可见性设置机制。因此,数据公正是确保算法正义的首要条件。数据公正包括人们因数据的排序变得可见、被对待方式的公平性。算法的可见性控制的不透明会导致底层群体失去社会流动甚至是政治平等的权利,如何利用数据技术提升底层群体的可见性,是实现社会分配正义不和忽视的面向。
提升算法透明度是减少媒体平台和用户间信息不对称的有效方式,能够平衡二者间的关系。透明度被称为新的客观性,是一种发现社会真理的重要途径。提升透明度则意味着媒体平台要公开信息生产与过程,以及同步公开对智能算法程序公开以及如何与数据进行交互的背景信息,在自身与用户的共同监督下确保算法决策能够中立客观。不同媒体平台间的算法规则不仅关涉商业机密,更有极强的专业性,这些都将影响算法透明度。对于运营媒体平台的互联网公司而言,算法透明就意味着在一定程度上公开技术系统的细节与由是,将直接损害企业自身的商业利益和竞争优势。同时,普通用户难以驾驭算法的专业性决策机制与技术细节,因此制定算法透明度准则的关键在于平衡好企业盈利与公共利益间的关系。
参考文献:
[1] 姜红, 开薪悦.“可见性”赋权——舆论是如何“可见”的?[J].苏州大学学报 ( 哲学社会科学版 ),2017,38(03):146-153.
[2] 郭小平 , 秦艺轩 . 解构智能传播的数据神话 : 算法偏见的成因与风险治理路径 [J]. 现代传播 ( 中国传媒大学学报 ),2019,41(09):19-24.
[3] 张超 . 作为中介的算法 : 新闻生产中的算法偏见与应对 [J].中国出版 ,2018,(01):29-33.
【本文为河北省教育厅资助专项“底层表达视角下算法可见性控制机制及其风险治理研究”(编号:BJS2024017)成果】