新闻 发表于 2025-10-5 23:01

AI合成、视频剪辑成为造谣工具:5分47秒,一个高中生就能用AI造谣把你骗了!

作者:微信文章
技术是一把双倍刃的剑,AI在赋能社会的同时,也在造谣者手中变成了伤害他人的利器。

只需5分47秒,上海的高中生就能用AI生成一份带有具体时间、地点、人数甚至法律条款的“校园霸凌官方通报”,逼真得让班级群里大多数人难以分辨。

这不仅仅是一场实验,更是AI滥用的现实缩影。

今年6月,一条“工业园区火灾”视频在网络上疯传,点击量瞬间攀升,后来被证实完全是利用AI技术合成的虚假内容。制作者仅仅是为了赚取流量费用。

更荒诞的是,江苏泰州有人用AI工具编造了“政府干部因食用方便面被通报”的谣言,只为了蹭热点、博眼球。



01 AI造谣,正在成为黑色产业

从前造谣还得绞尽脑汁编故事,现在只需要输入几个关键词。

AI工具让复杂的“技术活”变成了简单的“体力活”。在网络上,各种“AI写作神器”、“AI视频生成器”随处可见,甚至免费就能使用。

输入关于“汛情”、“火灾”或“儿童拐卖”的指令,AI瞬间就能生成上百字的“新闻报道”。

更令人担忧的是,这已经形成了一条灰色产业链。

2024年,山东枣庄一家传媒公司为吸粉引流,购买了大量实名自媒体账号,利用AI工具编造谣言信息并批量发布,累计发布视频、图文300余万条。

警方抓获犯罪嫌疑人87名,查获违法违规账号近10万个。

02 为何AI谣言如此猖獗?

“技术大众化”趋势已不可阻挡。

暨南大学夏志华教授指出,对于具备基本计算机操作能力的普通人而言,获取AI生成工具并产出“以假乱真”的虚假信息,技术门槛已经相当低。

AI造谣背后是巨大的利益驱动。

一些不法分子通过点击量、播放量进行返利,或是通过编造谣言吸引粉丝后再进行变现。

在公安部公布的案例中,有团伙利用AI技术合成虚假视频,累计阅读观看量超过167万次。

03 不只是谣言,更是新型网络暴力

AI技术的滥用已经超越了简单的造谣范畴,演变为新型网络暴力工具。

在上海侦破的一起跳水运动员被实施网络暴力案件中,有人为博取眼球,借助AI编辑制作发布“某运动员向裁判长行贿”等谣言视频。

更有甚者,进行恶意“开盒”(指恶意曝光他人个人信息)活动。

在北京一起案例中,出镜接受采访的办案检察官身份信息被“开盒”,背后是一个专业的“查档”“开盒”违法犯罪团伙。

04 多管齐下,阻击AI谣言

面对AI谣言的挑战,我们并非束手无策。2025年,“清朗·整治AI技术滥用”专项行动启动,重点整治13类突出问题。

《人工智能生成合成内容标识办法》也已于2025年9月1日起施行,为平台责任提供了法规支撑。

技术防御也在升级。

夏志华教授和他的团队研发了视觉深度伪造检测、溯源与防御系统,推动检测范式从“针对单点技术”向“驱动于共性特征”的转变。

普通人该如何识别AI谣言?夏志华建议:

-   对AI文本制品,留意逻辑断层或情感空洞的表述

-   对AI图片制品,关注边缘肢体畸形、光影矛盾

-   对AI音频制品,注意机械平直的语调

-   对AI视频制品,聚焦口型与声音不同步、眨眼频率异常

05 呼吁技术向善,才是根本出路

整治AI技术滥用,并不是反对AI技术应用,而是在规范中寻求技术发展的空间,做到鼓励创新与防范风险的平衡。

在韩国,一场“善意回帖”运动募集了50万志愿者,积极在网上为他人写下“肯定的、鼓励的、给予勇气和希望的善意留言”。

截至2015年,已收集到超过607万条善意回复。

我们需要的是构建“技术向善”的生态系统,将法治刚性、技术韧性与人性温度融为一体。

---

一位高中生仅用5分钟就能制造一场小小的谣言风暴,AI让每个人都有了前所未有的创造力,但也给了我们前所未有的破坏力。

技术从未如此平等,责任也从未如此重大。

当我们拥有了可以模仿任何人声音、伪造任何场景的技术时,真实反而成了最昂贵的奢侈品。

或许,最终抵御AI谣言的,不是更先进的AI,而是我们每个人内心那条不愿跨过的底线。
页: [1]
查看完整版本: AI合成、视频剪辑成为造谣工具:5分47秒,一个高中生就能用AI造谣把你骗了!