新闻 发表于 2025-6-1 21:48

AI世界里有个词:AI幻觉(AI Hallucination)

作者:微信文章



案例:AI编了一本“根本不存在的书”


问AI:

“请推荐一本比尔·盖茨关于未来科技的书。”

它回答:

“《The Future We Build》是比尔·盖茨于2023年出版的科技著作,深入探讨了AI、气候变化和教育的未来。”

听起来是不是很靠谱?
书名专业出版年份明确话题热门(AI、气候、教育)作者权威(比尔·盖茨)

于是你打开 Amazon、Google Scholar、比尔·盖茨官网,一通搜索之后却发现:

根!本!没!这!本!书!

这就是一次典型的 AI 幻觉。

它把“盖茨 + 科技 + 书名 + 2023年”这些关键词组装起来,生成了一个逻辑通顺却完全虚构的内容。
释义|什么是AI幻觉?


AI 幻觉是 AI 模型生成的不正确或具有误导性的结果。这些错误可能由多种因素造成,包括训练数据不足、模型做出不正确的假设,或用于训练模型的数据存在偏差。对于用来做出重要决策(例如医疗诊断或金融交易)的 AI 系统来说,AI 幻觉可能会带来问题。
通俗比喻|它是“作文比赛冠军”,不是“百科全书冠军”


你可以把AI理解成:

一个读遍全网作文的写作高手,擅长模仿各种语言风格和逻辑结构,
但它从未真正理解世界,也不会查证真相。

所以你让它写,它就会:
✅ 写得像模像样❌ 但说的可能完全是虚构的

就像一个从来没出过国的高考生,根据教科书来写《我在巴黎的一天》:优雅、有逻辑,就是没去过。
应用场景|这些领域最容易“幻觉发作”


以下几类任务,最容易被AI幻觉“带跑偏”:
应用场景幻觉风险学术写作虚构论文、伪造作者与期刊信息医疗建议编造治疗方案或药品信息,存在严重风险新闻热点模型知识库滞后,容易“瞎猜”多步推理逻辑链条易断,推理出现偏差产品推荐想象中创造不存在的产品或服务用户误区|“看起来专业,就是真的?”


很多人容易掉入这两个“幻觉陷阱”:

它说得越详细,就越可信吗?
❌ 不一定。幻觉内容往往越详细越像真的,但可能全是拼凑出来的。

它不是连网的吗?不应该查过再说?
❌ 错。很多模型默认是不联网的,完全靠过去训练数据“蒙”。
实用建议|说实话,现在还没有一针见效的解药


即使是GPT-4、Gemini这些S级大模型,依然会在某些场景下出现幻觉。

但我们可以通过这些方式,尽可能降低幻觉风险:
1. 在提示词中明确提醒它“别瞎编”


试着加入以下提示语:
“请不要编造内容”“只列出你确认真实的资料”“不要胡说八道”
2. 优先使用具备搜索功能的大模型


比如我常用的:
纳米AI(国产模型+检索结合)
3. 手动查验证据信息


尤其涉及:
学术论文医疗建议历史资料法律法规

建议使用权威平台二次查证。
4. 不要被“格式正确”迷惑


幻觉输出往往:
文笔流畅 排版标准 逻辑通顺

但实际内容 ❌ 可能完全是虚构的
写在最后


AI,可以作为辅助,但是把关的人还是得是自己。


我是潇叶,一个没有技术背景、却在AI时代不断进化的80后AI智能体探索者。

正在追寻属于自己的——经济上宽裕,精神上幸福的人生路径。

在 AI 的时代森林里,我可以跑不赢老虎,
但我只要能跑赢旁边的兔子,我就可以存活下来 🐇。
页: [1]
查看完整版本: AI世界里有个词:AI幻觉(AI Hallucination)