人工智能大模型发展及其在媒体行业应用的反思
吕旭
科大讯飞股份有限公司 合肥 231200
媒体行业作为信息传播的核心载体,传统模式存在内容生产周期长、传播渠道单一、用户需求响应慢等局限,难以应对数字时代受众对信息即时性、个性化的需求。随人工智能技术迭代,具备强大自然语言处理能力、多模态信息理解能力与自主学习能力的人工智能大模型逐渐渗透各行业,为媒体行业突破这些局限提供新路径,应用场景从自动化内容生成延伸到精准用户需求匹配与实时舆情监测等,不断拓展。
一、人工智能大模型在媒体行业应用中的问题反思
(一)内容真实性与伦理风险
人工智能大模型生成内容的真实性存在难以完全保障的问题,可能因训练数据中的错误信息、算法偏差生成虚假新闻与误导性内容,或模仿特定作者的风格生成伪造稿件,对媒体行业的公信力造成损害。部分媒体为追求传播量,过度依赖该模型生成猎奇、低俗内容,忽视信息的准确性与社会价值,违背媒体的社会责任。伦理层面,模型应用可能引发版权争议,如未经授权使用他人的文字、图像素材训练模型,或生成内容与已有作品高度相似;模型在内容推荐中还可能强化信息茧房,仅向用户推送符合其偏好的内容,导致用户视野狭窄,不利于多元观点的传播,影响社会共识的形成。
(二)算法透明度与公平性不足
人工智能大模型的算法当前多具有黑箱特性,媒体从业者难以清晰了解模型生成内容、推荐内容的具体逻辑与判断依据,当出现内容错误、推荐偏差等问题时,无法快速定位问题根源,难以进行针对性修正,增加媒体行业的运营风险。算法公平性问题同样突出,模型可能因训练数据中存在的偏见,在内容生成与推荐中放大这些偏见,造成内容传播的不公平,影响媒体行业应有的公共服务属性。
(三)数据安全与隐私保护漏洞
人工智能大模型应用时需收集大量用户数据与媒体内部数据,这些数据包含用户的个人隐私信息与媒体的核心资源,若数据管理不当,易出现泄露风险。部分媒体为提升模型效果,过度收集用户数据,超出必要范围;在数据存储、传输过程中,部分媒体缺乏有效的安全防护措施,导致数据被非法获取或滥用。模型训练过程中可能存在数据共享不规范的问题,如与第三方机构合作时未明确数据使用边界,这一情况会增加数据安全隐患,最终损害用户信任与媒体声誉。
二、人工智能大模型在媒体行业应用的优化路径
(一)构建多维度内容核验与伦理规范体系
为解决内容真实性问题,媒体行业需构建包含模型初检、人工复检、技术核验的多维度内容核验机制。模型初检阶段,可依托人工智能大模型自身的事实核查功能,将生成内容与涵盖政府官网、权威媒体报道、学术数据库的权威数据库信息进行比对,通过比对操作标记可能存在的事实性错误,为后续审核环节奠定可靠基础,减少基础层面的事实偏差。
进入人工复检环节,媒体行业需安排专业编辑对模型标记的可疑内容与重要稿件开展逐一审核工作,编辑凭借自身积累的专业知识与实践经验,进一步确认内容的准确性,避免因模型对特殊语境或隐性事实的误判造成错误内容传播的情况,弥补技术审核的局限性。技术核验层面,可引入区块链技术记录内容生成与修改的全过程,借助区块链具有的不可篡改特性实现内容溯源,让每一次内容调整都有清晰痕迹可查,从技术层面限制伪造内容的传播范围,维护媒体行业长期积累的公信力。
在伦理规范层面,媒体行业应制定人工智能大模型应用的伦理准则,明确内容生成的价值导向,禁止生成虚假、低俗、违背公序良俗的内容,确保内容生产符合社会主流价值观的要求。同时建立版权管理机制,规范训练数据的来源渠道,只有在获得授权之后方可使用他人素材,从源头避免出现版权侵权问题;明确模型生成内容的版权归属主体,厘清内容创作涉及的各方权利与责任边界。针对信息茧房这一影响用户认知的问题,可在推荐算法中加入多元观点权重,强制推荐一定比例的不同视角内容,帮助用户拓宽信息视野,促进多元观点的有效传播与社会共识的逐步形成。
(二)推进算法透明化与公平性优化
媒体行业可通过推行算法白皮书制度提升算法透明度,向公众与监管机构公开模型的核心功能、数据来源、决策逻辑、常见问题处理方式,让外界能够清晰了解算法的运作机制,消除算法运作的信息壁垒;定期发布算法应用报告,详细展示算法在实际应用中的表现情况与存在的问题,主动接受社会层面的监督,增强公众对算法的信任程度,减少因信息不透明引发的质疑。
与此同时,媒体行业需培养具备算法知识的媒体人才,这类人才既要充分了解媒体行业的业务需求,又要熟练掌握算法的基本原理与运作逻辑,能够在算法应用过程中及时发现与业务需求不符的问题并提出针对性优化建议。在此基础上,组建专门的算法审核团队,团队成员由具备算法知识的媒体人才与行业专家构成,实时监测模型的输出结果,分析算法可能存在的偏差,形成监测-分析 - 修正的闭环管理模式,确保算法始终朝着合理、合规的方向运行,避免算法偏差累积引发更大问题。
算法公平性优化方面,媒体行业需优化训练数据的多样性与平衡性,减少数据中隐含的偏见。在人物相关数据收集过程中,确保不同性别、地域、职业的样本占比保持合理,避免因样本失衡导致算法在学习过程中产生偏见;在内容生成之前,通过偏见检测模块筛查可能存在的刻板印象表述,自动提示编辑进行修改操作,从内容生产的源头减少偏见内容的产生。
(三)完善数据安全与隐私保护机制
媒体行业需建立覆盖数据全流程的数据安全管理体系,从数据收集、存储到使用、共享的每个环节,都要制定严格的安全规范,形成完整的安全防护链条。数据收集阶段,明确数据收集的范围与目的,严格遵循最小必要原则,仅收集模型应用必需的用户数据,不额外收集与服务无关的信息,降低数据冗余带来的安全风险;同时向用户清晰告知数据用途与保护措施,只有在获得用户授权之后才进行数据收集,充分尊重用户的知情权与选择权,增强用户对数据使用的信任。
数据存储环节,可采用加密存储、分布式存储等技术提升数据安全性。对包含个人敏感信息的数据进行脱敏处理,去除数据中包含的个人标识信息,即便出现数据泄露情况也不会导致用户身份暴露;严格限制数据访问权限,仅允许授权人员接触核心数据,通过权限分级避免无关人员获取敏感信息;详细记录数据访问日志,完整记录每一次数据访问的时间、人员、操作内容,便于后续追溯工作开展,一旦出现数据安全问题,能够快速定位相关责任人,降低安全事件的影响范围。
数据共享与使用方面,媒体行业需制定严格的合作规范,与第三方机构合作时签订详细的数据安全协议,明确数据使用的范围、期限、方式,禁止第三方将数据用于协议之外的其他用途,从合作层面约束数据使用行为;定期对数据安全体系进行漏洞检测与风险评估,引入专业的安全技术团队,利用专业的检测工具与技术手段,及时发现数据安全体系中存在的漏洞,制定针对性的修复方案,有效防范黑客攻击、数据泄露等风险。
结束语:
媒体需将传播社会正能量作为核心责任履行,同时主动肩负促进社会持续发展、引导人工智能技术合理应用的重要使命。媒体人应积极投入人工智能技术的研究与学习,通过充分激活人工智能大模型具有的内容生产能力,在提升文化艺术创作整体效率的过程中,持续传播符合时代要求的正确社会价值观念。
参考文献:
[1] 张 宇 . 成 都 人 工 智 能 产 业 大 模 型 赛 道 发 展 建 议 [J]. 先锋 ,2023(11):69-70.
[2] 高文胜, 许阳飞. 基于大数据技术的新媒体数 据底座建设与应用[J].广播与电视技术 ,2024(7):47-50.