缩略图
Mobile Science

人工智能写作中的新闻伦理问题:责任归属与价值冲突

作者

马伊宁

新疆日报社 新疆乌鲁木齐市 830000

一、人工智能写作的新闻实践:便利与隐忧的共生

打开手机新闻端,早间推送的“昨日本地民生数据汇总”、股市开盘前的“行业动态速览”,甚至突发事故后的“初步情况通报”,越来越多带着“AI 生成”标识的内容进入公众视野。国内,央视新闻的 AI 主播“王冠”能实时播报新闻;国外,《华盛顿邮报》的 Heliograf 工具每年生成数千篇地方新闻。这些技术应用确实让新闻生产效率大幅提升 —— 以往需要 3 小时整理的财报数据,AI 半小时就能转化为条理清晰的报道;偏远地区的农业政策解读,AI能快速适配方言版文案,覆盖更多受众。

但效率提升的背后,伦理隐忧也在不断浮现。去年某省台用 AI 生成“乡村振兴典型报道”,因抓取的农户收入数据是三年前的旧数据,导致报道中“某村人均年收入超 10 万元”的表述与实际情况严重不符,不仅引发村民不满,还让媒体公信力受损。更值得警惕的是,部分自媒体为降低成本,完全依赖AI 生成社会新闻,甚至让 AI“编造”邻里矛盾、家庭纠纷类内容,用“骇人标题 + 虚假情节”吸引流量,这些行为正在不断触碰新闻伦理的红线。

二、伦理困境的深层剖析:责任难定与价值错位

(一)责任归属:法律滞后下的“甩锅游戏”

2024 年,某科技公司开发的 AI 写作工具被自媒体用于生成“某明星涉嫌偷税漏税”的虚假新闻,内容包含伪造的“税务稽查通知书”截图。明星起诉后,自媒体称“内容由 AI 自动生成,已尽到初步审核义务”;科技公司则表示“工具仅提供写作功能,不负责内容真实性”;而提供“税务通知书模板”的素材平台,又以“用户自行上传,平台无法逐一审核”为由拒绝担责。最终法院虽判决自媒体赔偿,但因未明确科技公司与素材平台的责任,类似的虚假新闻仍屡禁不止。

这种困境源于法律与行业规则的滞后。现行《新闻记者证管理办法》《互联网新闻信息服务管理规定》等,主要针对传统人工新闻生产,对 AI 写作的责任划分几乎没有明确条款。比如算法开发者是否需要对 AI 的“自主学习偏差”负责?媒体使用 AI 时,人工审核的“度”该如何界定?数据提供方对信息的“时效性担保”义务有哪些?这些问题不解决,责任就永远处于“模糊地带”,受损方的权益也难以真正得到保障。

(二)价值冲突:技术逻辑对新闻本质的冲击

效率与真实:时效竞赛中的“真实性让步”

某都市报为争夺“早间新闻首发权”,规定 AI 写作的“早间路况报道”需在凌晨 5 点前发布。为赶时间,AI 直接抓取前一晚 10 点的交通数据,未更新凌晨的突发拥堵信息,导致报道中“某路段畅通”的表述与实际“严重拥堵”不符,不少市民因误信报道上班迟到。类似情况在突发新闻中更常见 —某地发生火灾后,AI 未等消防部门发布官方通报,就根据网友拍摄的视频生成“已致 5 人遇难”的报道,后续官方通报仅 1 人受伤,这种“抢先发布”不仅误导公众,还干扰了救援工作的舆论环境。

个性与客观:算法推荐下的“视野窄化”

某新闻平台的 AI 写作系统,会根据用户点击记录调整内容方向。有位关注教育的用户,因多次点击“双减政策利好”类文章,AI 后续生成的所有教育新闻,都只强调“双减带来的减负效果”,对“部分学校课后服务质量下降”“家长课外辅导支出增加”等问题绝口不提。该用户直到参加家长会,才知道政策实施中的真实问题,不禁质疑“新闻本该帮我全面看问题,怎么反而让我更片面了”。新闻的核心价值是“呈现多元现实”,但 AI 的个性化逻辑,却把新闻变成了“迎合用户偏好的滤镜”,让公众逐渐失去对事物的完整认知。

理性与人文:数据加工中的“情感缺失”

2024 年北方某地发生雪灾,某新闻 APP 的 AI 生成稿件,用“雪灾影响面积达 XX 平方公里,农作物受灾 XX 公顷,直接经济损失 XX 万元”的冰冷数据堆砌全文,甚至在结尾写道“本次雪灾对全年粮食产量影响较小”。这种“只算经济账,不算人情账”的表述,引发网友强烈不满 ——“受灾农户的生活怎么办? AI 看不到吗?”反观传统新闻,记者会深入灾区,写下“农户王大爷守着被雪压垮的大棚抹眼泪”“志愿者为滞留司机送热粥”等细节,这些充满人文关怀的内容,才能让新闻真正连接人心。而 AI 受限于技术,只能处理数据,无法理解人类的情感需求,这正是技术逻辑与新闻人文属性的根本冲突。

三、破局之路:从规则完善到实践优化

(一)构建“多方共治”的责任体系

今年 3 月,国家网信办联合广电总局出台《人工智能新闻信息服务管理规定(征求意见稿)》,首次提出“三方责任清单”:算法开发者需建立“AI 新闻伦理评估机制”,每季度向监管部门提交评估报告;媒体机构需配备“AI 内容审核专员”,审核记录至少保存 6 个月;数据提供方需标注信息的“更新时间与来源可信度”,虚假信息率超 5% 将被暂停服务。

在实践中,已有媒体探索“责任追溯码”制度 —— 每篇 AI 生成的新闻,都附带一个专属追溯码,扫码可查看数据来源、算法版本、审核人员等信息。去年某媒体的 AI 稿件因数据错误引发争议,通过追溯码快速查到是审核人员未核对官方数据,媒体不仅对审核人员进行处罚,还公开了整改措施,既平息了舆论,也强化了责任意识。

(二)打造“伦理优先”的 AI 写作模式

在技术层面,不少企业开始在 AI 模型中加入“伦理约束模块”。比如某AI 写作工具,在生成灾难新闻时,会自动触发“人文关怀校验”—— 若稿件中数据占比超 70% 、未提及救援进展或受灾群众帮扶措施,就会提示“需补充人文内容”;生成争议性话题新闻时,会强制要求“正反观点字数占比不低于4:6”,避免片面表述。

在媒体实践中,“AI + 人工”的协作模式也逐渐成熟。某央媒规定,AI仅负责“事实性内容生成”,如数据整理、政策条款提炼;而“观点解读”“情感表达”“细节描写”等核心环节,必须由记者完成。比如报道“高考录取”时,AI 整理各高校录取分数线、招生计划,记者则采访考生、家长、老师,写下“考生查分后的激动瞬间”“老师的暖心祝福”等内容,既保证了信息的准确高效,又保留了新闻的人文温度。

四、结语

人工智能写作给新闻业带来的,不仅是技术变革,更是伦理重构。责任归属的模糊、价值冲突的凸显,本质上是技术发展速度与伦理规则建设、人文素养培育不同步的问题。解决这些问题,不能简单“否定技术”或“放任发展”,而需要在规则层面明确责任边界,在技术层面注入伦理基因,在实践层面平衡效率与价值。只有让 AI 写作始终围绕“真实、客观、有温度”的新闻本质,才能让这项技术真正成为新闻业的“助力”,而非“阻力”,最终为公众提供更优质、更可靠的信息服务。

参考文献:

[1] 寸洪斌 , 杨增威 , 邓瑜君 . 责任伦理视域下人工智能养老服务的伦理风险及其化解路径 [J]. 河海大学学报 ( 哲学社会科学版 ),2025,27(03):100-108.

[2] 李子运 , 蔡国春 . 论良知作为人工智能辅助学术写作的伦理底线 [J].高等教育研究 ,2024,45(11):79-86.

[3] 潘雪 , 果磊 , 段艳文 . 人工智能技术对新闻伦理的挑战与应对 [J]. 青年记者 ,2023,(24):56-58.