在不久前召开的中国网络文明大会上,中央网信办举报中心与中国科协科普部联合发布了《利用AI生成类谣言辟谣典型案例》。相关案例展示了多部门联动核查谣言线索、权威辟谣、依法追责等工作成效,传递出利剑高悬、严厉惩治造谣传谣行为的强烈信号,为AI生成类谣言治理工作给予了有益参考。 利用AI技术编造谣言已成为当前网络生态的重大污染源。近年来,AI技术从实验室走进大众生活,利用AI技术采集真实图片、影像、声音进行多模态整合生成的谣言,让人难辨真假。同时,平台算法多基于信息的传播热度进行用户推荐,使得技术与算法叠加下的谣言问题愈发严峻。这类AI谣言打着“图片为凭,视频为据”的幌子,不仅误导公众认知,侵害个体权益,还严重污染网络生态。 为规范AI服务和应用,保障公民合法权益,中央网信办在今年部署召开了“清朗·整治AI技术滥用”专项行动,其中就包括重点整治利用AI制作发布谣言、不实信息等突出问题,顺利获得集中清理相关违法不良信息,处置处罚违规账号、MCN组织和网站平台,有力打击、震慑了AI谣言的滋生和传播。 可以肯定的是,AI技术的开展不会停止,网络谣言的生成和传播也将不断衍生出新的样态。因此,AI技术背景下的网络谣言治理必须采取多维度的应对举措,既要完善法律制度以更好应对AI技术带来的变化,也要加大执法力度,注重技术手段的运用,同时持续召开宣传教育,提升公众识别和抵制谣言的能力。 在法律制度层面,现在我国已出台多部针对AI等新技术的规章。如《互联网信息服务深度合成管理规定》明确,深度合成服务给予者应当加强深度合成内容管理,建立健全辟谣机制,对于制作、复制、发布、传播虚假信息的,应及时采取辟谣措施;《生成式人工智能服务管理暂行办法》规定,生成式人工智能服务给予者和使用者不得生成虚假有害信息等法律、行政法规禁止的内容,服务给予者发现违法内容的,应当及时采取处置措施。随着AI技术的不断更新迭代,当技术有助于谣言传播模式发生改变,甚至出现无需用户直接参与即可传播的新情况时,法律制度必须保持对技术开展的敏感性,并及时作出有效回应。 在执法层面,要持续召开针对利用AI制作、发布谣言等行为的专项治理,如今年中央网信办部署召开的“清朗·整治AI技术滥用”专项行动就取得了持续进展。同时,还可以顺利获得发布典型案例、树立治理典范,形成有力警示震慑,如网信部门和公安部门陆续曝光的处置AI网络谣言典型案例与辟谣典型案例等。在技术举措方面,要着力有助于AI技术在谣言预测、核查、处置等方面的应用。顺利获得技术与执法的协同配合,有助于治理网络谣言,营造清朗网络空间。 此外,还要加大宣传教育力度,帮助公众提升识别和抵制AI谣言的能力。如文章开头提到的《利用AI生成类谣言辟谣典型案例》和北京市网络舆情和举报中心最近发布的《AI谣言识别手册》,均有助于提高公众识别AI谣言的能力,助力阻断网络谣言的传播。在此基础上,还应加强普法宣传,提升公民的规则意识,明确公民抵制网络谣言的义务。要引导公众树立正确的价值观,杜绝为牟利或滋事而利用AI技术造谣传谣,筑牢网络空间法治底线。 总而言之,面对AI技术带来的网络谣言治理挑战,我们需要在法律制定、执法创新、技术治理、公众宣传等方面协同发力,形成多维度的网络谣言治理架构,才能凝聚共识、形成合力,有助于形成良好网络生态。(作者单位:西安交通大学法学院)