您现在的位置: 首页>> 舆情>> 正文
【舆情研究】2025年AI技术滥用八大乱象盘点
时间:2026-01-10 12:55:37| 来源: 法治网

编者按:2025年初,生成式人工智能模型DeepSeek的发布引爆舆论场。这一年,AI技术经历了突飞猛进的发展,为社会带来极大便利的同时,也大大推高了技术滥用的风险,由此衍生出一系列网络乱象。法治网舆情中心盘点2025年以来近120起AI技术滥用事件,总结表现突出的八大乱象,并就监管和执法部门如何增强网络空间治理效能提出应对建议。

舆情综述

1. AI谣言日渐凸显

AI技术的普及带来最显著的滥用风险就在于AI谣言多发。对话大模型的迅猛发展令批量生产谣言的门槛进一步降低,而且比起传统谣言,AI编造的谣言细节逼真、情节丰富,更具迷惑性。梳理发现,今年的AI谣言集中在以下四个领域:一是编造涉警情险情灾情等谣言,如贵阳文昌阁有人“挖眼虐猫”事件引起广泛传播,警方调查发现系网民用AI软件编造的谣言。二是蹭炒社会热点炮制谣言,有网民在“全党开展深入贯彻中央八项规定精神学习教育”之际,利用AI炮制“江苏两干部买方便面被通报”谣言,被采取刑事强制措施。三是编造涉及他人名誉等侵权谣言,如“华山医院前院长客死他乡”“有顶流明星在澳门输了10亿”等涉及名人明星的谣言信息被大量传播,相关话题登上热搜榜。四是AI“黑嘴”抹黑营商环境。在上海警方侦破的一起利用人工智能技术编造、传播网络谣言损害企业权益案中,造谣者使用AI技术以“无中生有”“移花接木”“断章取义”的手法拼凑,再冠以“博眼球”的标题,使得涉及企业的不实内容被快速推送到用户眼前,造成企业声誉受损。

2. AI“起号”现象增多

根据主流媒体说法,AI“起号”就是指自媒体通过AI技术批量生产内容,借此快速积累粉丝、提升账号商业价值,进而形成可交易或变现的网络资产。在当前的短视频平台上,AI生成的内容正在迅速占领网络空间,诸如“外国人熟练演唱中文歌曲”“银发奶奶传授养生秘诀”“氛围感女孩分享穿搭美学”等AI视频获得较高的关注度,令舆论信以为真。分析人士指出,利用AI技术“起号”成本低、涨粉快,还能精准地吸引特定群体,通过电商带货、账号转卖等方式变现,形成“起号、转型、转卖”的灰色产业链。目前AI造假“起号”主要在情感、养生、颜值等领域,甚至还有不少相关的付费教程,以“3天暴力起号”“条条是爆款”等措辞为噱头,吸引用户。业内专家还强调,一些利用AI“起号”的从业人员,会在互联网传授绕过平台管理的经验,如果放任大量此类账号进入账号交易市场,可能会导致网络空间持续遭到污染。

3. AI“换脸”侵权案例频发  

今年以来,AI深度合成名人明星“换脸”拟声的视频层出不穷。企业家雷军、医学专家张文宏、育儿专家李玫瑾、影视明星靳东、央视主持人李梓萌等公众人物均遭受“换脸”拟声的侵害。全国两会期间,多名人大代表和政协委员关注AI“换脸”拟声乱象,呼吁尽快立法、重点整治,相关讨论引发舆论热议。11月5日,央视新闻法治在线报道了演员温峥嵘遭AI盗播事件,多个直播间出现她的带货形象,温峥嵘曾在直播间质问却遭对方拉黑,再次掀起相关话题讨论。《半月谈》记者调查发现,不法商家利用公众人物为自家“贴金”,有的利用AI仿冒奥运冠军全红婵、孙颖莎、王楚钦声音带货;有的让公众人物宣传预约购物可享受低价但实际并无折扣,宣传出售高价商品实际只提供低价商品;还有的声称有了公众人物“加持”,商品宣传片“播放量10亿+”。

4. AI“魔改”“恶搞”问题滋生

在“流量大棒”的指挥下,部分网络用户为了出奇出新,利用AI技术对影视作品进行大幅或颠覆性改编的行为,常见于短视频、视觉创作等领域。《法治日报》调查发现,“外国山海经”“AI山海经”等“魔改”内容在网络上迅速走红,这些包含木棍人、仙人掌身躯大象、轮胎青蛙等违背常理的奇怪形象,由AI拼接生成,与中国古代典籍《山海经》无关,已经渗透到低龄群体中,甚至包含血腥暴力、恶搞低俗内容的“邪典动画”。相关内容引发舆论担忧。与此同时,“流浪汉闯入家门”的AI图片在社交媒体上走红,这种利用AI制作虚假内容进行戏弄或测试的“恶搞”行为引起模仿效应,引发居民恐慌甚至警方出警。媒体批评“AI可以用于娱乐,但娱乐不应破坏亲人之间最基本的信任,更不应损害公共利益”。

5. AI虚假营销频频误导消费者

AI技术作为强大的辅助工具,已经在社会各个行业得到广泛应用,但是在消费行业,由AI技术生成的营销内容却充斥着造假、低劣内容,遭到舆论谴责和抵制。例如良品铺子的“花生上树”AI广告引发广泛争议,还有商家利用AI技术生成“传承千年苗方苗古金贴传承人”等虚假人物形象,外卖平台上也存在大量使用AI技术营造“网红门面”场景的档口。除此之外,一些商家还利用少数网民“投机”“走捷径”等心理进行诱导消费。根据央广网“中国之声”、新华社“新华视点”等媒体报道,部分商家和自媒体博主号称可以用AI预测彩票走向,甚至还推出收费预测彩票中奖号码的服务;在今年高考前夕,也有机构打出AI大模型“押题”的旗号进行营销,诱导消费者付费购买所谓“内部资料”。中国福彩、媒体等多家机构发布辟谣和解读文章,提醒消费者防范营销陷阱。

6. AI“薅羊毛”退货现象泛滥

近年来,针对电商平台的“薅羊毛”行为备受关注。今年“双十一”购物节过后,网上曝出多起AI造假骗退货款的案例,例如广州一买家AI合成“死蟹”视频骗取商家退款,被警方处以行政拘留8日处罚。梳理媒体公开报道发现,这类借助AI图像处理技术生成难以用肉眼识别的虚假图片或视频,向电商商家发起“仅退款”要求,已经遍布服装、美妆、植物、生鲜等各大类目。不法分子利用电商消费小额高频的特点规避法律风险,令中小商家苦不堪言,陷入“维权成本高于损失”的两难。还有媒体报道指出,更令人担忧的是,这一行为已形成灰色产业链,网上有所谓付费教程宣称“288元教会单账号成功退款30次”,还以学员累计获利2000元为噱头吸引参与者。对此舆论呼吁称,看似是小额利益的投机,实则正在层层侵蚀电商生态的信任基石,亟需多方协同发力进行整治。

7. 新型AI诈骗犯罪多发

电信网络诈骗案件在严打严防形势下依然多发,并且在AI技术加持下手段不断翻新、隐蔽性日益增强,成为危害人民群众财产与生命安全的“新毒瘤”。当前新型AI诈骗案件层出不穷,除了典型的“AI换脸”“AI拟声”诈骗之外,还有很多变种,例如“AI换装”诈骗,有不法分子利用“AI换装”功能,伪造军警身份招摇撞骗;“AI客服”诈骗,不法分子利用AI技术,制作智能客服系统,通过语音或文字同受害人交流,诱骗受害人提供个人信息或进行转账操作;“AI情感”诈骗,不法分子运用AI训练面向网聊的大语言模型,通过伪造场景、声音与受害人建立情感关系,进而获取个人信息,实现精准诈骗。对于AI诈骗多发态势,舆论普遍担忧AI算法被不法分子利用,沦为诈骗工具。

8. AI数据污染风险上扬

当前,人工智能大模型训练需要海量数据,这些数据一般来自开源网络,因此虚假和错误的数据就会进入训练语料库中,造成数据污染现象,导致更多错误信息被生成,甚至还有不法分子进行恶意的“数据投毒”。《新华每日电讯》文章援引一项研究显示,当训练的数据集里仅有0.01%的虚假文本时,模型输出的有害内容会增加11.2%;即使是0.001%的虚假文本,其有害输出也会相应上升7.2%。今年5月,《中国青年报》报道了“AI把野史当信史”现象,文中提到AI生成的“明朝使臣质问帖木儿”,通过嫁接真实人物、虚构对话及伪造文献注释,形成具备学术表征的伪史文本。这一典型案例揭示了AI时代数据污染的闭环路径:虚假信息经过编造、传播进入AI模型语料库,再输出成为“答案”被引用。经过这样一圈闭环后,普通公众很难识别哪些信息为真、哪些信息为假,久而久之将会产生更为深远持久的认知偏见。

应对建议

AI技术滥用为何屡禁不止?专业人士分析认为,平台流量与带货转化的强激励,使得一些商家和个人利用AI技术实现“劣币逐利”,并迅速复制扩散;网络环境的匿名性、隐蔽性,使得AI滥用行为的取证难、追责成本高;公众辨别深度伪造的媒介素养不足,平台的内容溯源机制不完善等,同样助长了AI生成内容应用乱象。对此必须多措并举、标本兼治,构建全链条治理体系。法治网舆情中心综合专家学者、行业人士等方面的意见,总结出以下三方面建议。

1. 完善法律法规体系 规范平台责任和用户义务

部分专家指出,随着AI技术的快速发展,相关的监管措施、法律法规也要及时更新,继续细化平台、技术提供商、内容制作者及用户的法律责任。2025年9月1日起施行的《人工智能生成合成内容标识办法》要求AI合成内容必须明确标注,但从大量案例来看,仍有不少用户发布AI合成信息时并未明确标注,容易让人产生混淆。对此,监管部门需进一步规范AI技术应用标准,督促平台加大对AI生成内容的审核把关责任,引导用户主动添加相关标识,并且利用技术手段建立智能审核系统,对上传的AI合成内容进行实时监测,及时发现和拦截侵权、虚假、违法等不良内容。各大平台也需进一步改革涉及AI内容的流量分发和收益分成机制,最大限度压缩用户通过AI技术滥用牟利的空间。

2. 加大执法司法力度 全链条打击违法犯罪行为

部分专业人士建议,执法司法机关需要建立“链条化”思维,对AI违法犯罪链条的前端发布主体、中端技术手段和末端的后果危害,分别进行评价和判断,进行全链条打击和预防。执法部门需持续部署开展“清朗”系列专项行动,从严整治AI技术滥用等网络违法乱象,依法处置违规平台、企业和账号。对待花样翻新、不断迭代的AI造谣、“换脸”诈骗、虚假宣传、“薅羊毛”等违法犯罪套路,要深挖背后利益链条,进行源头打击、治理,及时向社会公布,对不法分子形成震慑。针对生成和传播虚假信息的高风险领域,司法机关也可以通过司法解释等形式明确各方义务边界,进一步制定科学合理的AI侵权责任认定指导标准。

3. 强化法治宣传教育 增强公众参与积极性

AI技术滥用问题与个体心理、网络生态等多方因素有关,相关治理工作是一个系统工程,在法律和技术手段之外,还需要长期治理和全社会参与。澎湃新闻等媒体建议,执法司法部门深入开展法治宣传教育,通过以案释法等形式,进一步增强网民的法治意识和媒介素养,不断规范使用AI技术、识别AI谣言诈骗等能力;同时完善网络不良信息举报机制,鼓励广大用户积极参与监督,对用户举报的问题及时进行核实和处理。此外,企业作为AI技术滥用的主要受害者,也需增强维权意识,及时向平台投诉举报,并与属地公安机关沟通、报案,防止涉企AI谣言持续扩散发酵。

来源:http://www.legaldaily.com.cn/index/content/2026-01/04/content_9318149.html

责任编辑:SONGZIDONG
上一篇: 多计数少给油少缴税:起底加油站作弊“黑幕”
下一篇:

服务热线

010-86200101

二维码