多方协同发力遏制“AI谣言”


中国产业经济信息网   时间:2025-10-17





  伪造热点事件、捏造名人言论、炮制伪科普、嫁接虚假证据……近年来,随着AI技术的快速发展,利用AI工具合成技术编造谣言,甚至生成逼近真实的图片、音视频,时常出现在人们的生活中,让人难辨真假。此外,还包括利用AI技术催生的黑灰产,这些行为不仅严重扰乱了公共信息秩序,更对社会信任与稳定构成现实威胁。


  人工智能时代,利用AI造谣日渐多发。一方面,AI技术的便捷性和低成本,使得造谣者能够轻松地生成大量虚假信息,只需输入相关关键词,AI软件便能自动抓取素材生成文本,并配上虚假的图片,实现谣言的大规模生产。另一方面,利用 AI造谣离不开利益的诱惑,不法者的造谣动机主要源于牟取互联网内容平台给予创作者的奖励,以及为一些电商平台经营引流等;一些造谣者可以从广告收入、合同推广、直播带货或其他相关的商业活动中获益。


  针对利用AI制作发布谣言、不实信息等乱象,相关部门重拳出击。自今年4月以来,中央网信办开展“清朗·整治 AI技术滥用”专项行动,聚焦AI换脸拟声侵犯公众权益、AI内容标识缺失误导公众等AI技术滥用乱象,累计处置违规小程序、应用程序、智能体等AI产品3500余款,清理违法违规信息96万余条,处置账号3700余个,各项工作取得积极进展。


  然而,AI技术的迅猛发展,让网络谣言治理面临新的挑战。遏制 AI谣言需要多方协同发力,构建起涵盖生成方、传播方与接收方的全链条、全流程治理机制。


  网络平台作为信息传播的关键枢纽,应升级现有的信息审核体系,借助AI技术治理 AI谣言,利用实时的智能内容识别和过滤系统,对文本、图像、音视频进行自动标注和风险预警,在谣言传播初期实现技术级别的高效拦截;应加强对 AI造谣和“水军”行为的智能识别机制研究,进一步改革涉及AI内容的流量分发和收益分成机制,最大限度压缩通过 AI造谣牟利的空间,同时完善用户实名认证与信用评价体系,对违规造谣用户采取限制功能、封禁账号等措施。


  网络不是法外之地,AI也不是“造谣工具”。相关部门须加速完善相关立法,对模型开发者、服务运营商、内容发布者等各方主体设定明确的审核与合规义务。对因管理不善、审核失职导致谣言传播的技术企业、平台方依法追责,并建立高效、便捷的权益救济和司法响应渠道,为受害者提供明确的法律支持,营造有力的法律威慑。


  作为信息接收者,公众应主动了解AI技术的应用特点,面对疑似谣言,在转发传播前核实信息的来源和真实性,避免成为谣言的传播者。发现疑似 AI谣言或其他虚假信息时,及时向平台和监管部门举报,为净化网络环境贡献自己的力量。


  只有通过优化数据治理生态、健全法律责任体系、增强公众识别能力,才能在源头上有效遏制AI谣言的制造与流通,为后续治理环节打下坚实基础,从而推动人工智能向上向善、行稳致远。(记者 陈文丽)


  转自:中国商报

  【版权及免责声明】凡本网所属版权作品,转载时须获得授权并注明来源“中国产业经济信息网”,违者本网将保留追究其相关法律责任的权力。凡转载文章及企业宣传资讯,仅代表作者个人观点,不代表本网观点和立场。版权事宜请联系:010-65363056。

延伸阅读



版权所有:中国产业经济信息网京ICP备11041399号-2京公网安备11010502035964