AI合成、视频剪辑成为造谣工具:5分47秒,一个高中生就能用AI造谣把你骗了!
作者:微信文章技术是一把双倍刃的剑,AI在赋能社会的同时,也在造谣者手中变成了伤害他人的利器。
只需5分47秒,上海的高中生就能用AI生成一份带有具体时间、地点、人数甚至法律条款的“校园霸凌官方通报”,逼真得让班级群里大多数人难以分辨。
这不仅仅是一场实验,更是AI滥用的现实缩影。
今年6月,一条“工业园区火灾”视频在网络上疯传,点击量瞬间攀升,后来被证实完全是利用AI技术合成的虚假内容。制作者仅仅是为了赚取流量费用。
更荒诞的是,江苏泰州有人用AI工具编造了“政府干部因食用方便面被通报”的谣言,只为了蹭热点、博眼球。
01 AI造谣,正在成为黑色产业
从前造谣还得绞尽脑汁编故事,现在只需要输入几个关键词。
AI工具让复杂的“技术活”变成了简单的“体力活”。在网络上,各种“AI写作神器”、“AI视频生成器”随处可见,甚至免费就能使用。
输入关于“汛情”、“火灾”或“儿童拐卖”的指令,AI瞬间就能生成上百字的“新闻报道”。
更令人担忧的是,这已经形成了一条灰色产业链。
2024年,山东枣庄一家传媒公司为吸粉引流,购买了大量实名自媒体账号,利用AI工具编造谣言信息并批量发布,累计发布视频、图文300余万条。
警方抓获犯罪嫌疑人87名,查获违法违规账号近10万个。
02 为何AI谣言如此猖獗?
“技术大众化”趋势已不可阻挡。
暨南大学夏志华教授指出,对于具备基本计算机操作能力的普通人而言,获取AI生成工具并产出“以假乱真”的虚假信息,技术门槛已经相当低。
AI造谣背后是巨大的利益驱动。
一些不法分子通过点击量、播放量进行返利,或是通过编造谣言吸引粉丝后再进行变现。
在公安部公布的案例中,有团伙利用AI技术合成虚假视频,累计阅读观看量超过167万次。
03 不只是谣言,更是新型网络暴力
AI技术的滥用已经超越了简单的造谣范畴,演变为新型网络暴力工具。
在上海侦破的一起跳水运动员被实施网络暴力案件中,有人为博取眼球,借助AI编辑制作发布“某运动员向裁判长行贿”等谣言视频。
更有甚者,进行恶意“开盒”(指恶意曝光他人个人信息)活动。
在北京一起案例中,出镜接受采访的办案检察官身份信息被“开盒”,背后是一个专业的“查档”“开盒”违法犯罪团伙。
04 多管齐下,阻击AI谣言
面对AI谣言的挑战,我们并非束手无策。2025年,“清朗·整治AI技术滥用”专项行动启动,重点整治13类突出问题。
《人工智能生成合成内容标识办法》也已于2025年9月1日起施行,为平台责任提供了法规支撑。
技术防御也在升级。
夏志华教授和他的团队研发了视觉深度伪造检测、溯源与防御系统,推动检测范式从“针对单点技术”向“驱动于共性特征”的转变。
普通人该如何识别AI谣言?夏志华建议:
- 对AI文本制品,留意逻辑断层或情感空洞的表述
- 对AI图片制品,关注边缘肢体畸形、光影矛盾
- 对AI音频制品,注意机械平直的语调
- 对AI视频制品,聚焦口型与声音不同步、眨眼频率异常
05 呼吁技术向善,才是根本出路
整治AI技术滥用,并不是反对AI技术应用,而是在规范中寻求技术发展的空间,做到鼓励创新与防范风险的平衡。
在韩国,一场“善意回帖”运动募集了50万志愿者,积极在网上为他人写下“肯定的、鼓励的、给予勇气和希望的善意留言”。
截至2015年,已收集到超过607万条善意回复。
我们需要的是构建“技术向善”的生态系统,将法治刚性、技术韧性与人性温度融为一体。
---
一位高中生仅用5分钟就能制造一场小小的谣言风暴,AI让每个人都有了前所未有的创造力,但也给了我们前所未有的破坏力。
技术从未如此平等,责任也从未如此重大。
当我们拥有了可以模仿任何人声音、伪造任何场景的技术时,真实反而成了最昂贵的奢侈品。
或许,最终抵御AI谣言的,不是更先进的AI,而是我们每个人内心那条不愿跨过的底线。
页:
[1]