AI产出 = (模型能力) *(用户的领域认知)*(工作流程设计)
作者:微信文章用户没有结构,AI就混乱。
用户有结构但方法不适配,AI就打不准。
用户结构明确且适配,AI才能释放能力。
近一年来的AI使用和交流经验,我观察到许多用户在与AI交互时,都会下意识地产生“拟人化”倾向。我们习惯问:“你怎么看?”或者“请告诉我你的观点。” 这看似自然,毕竟它们确实能像人类一样流畅对话。但AI并不是像一个人那样思考或表达观点。它们只是很擅长根据大量训练的数据猜出句子中的下一个词。它回答问题时,就像是在演绎(角色扮演)很多人写过的关于这个话题的平均值,有点像统计学的混合。所以,更好的提示=来自一个预测Token的系统,能给出更聪明、更少偏见的回复。
为什么“你”是一个糟糕的提示词?
Andrej Karpathy 曾一针见血地指出:把 LLM 当作模拟器,有助于彻底理解它的行为方式,并最大化其可控性。
当我们对模型说“你”时,实际上是在无意识地激活AI语料中某种平均化、模糊化的模式。LLM并没有持续的自我意识,也没有叙事性的记忆。当你问“你觉得 xyz 怎么样”时,它不是在思考,而是在调用海量数据中关于该话题的平均值,进行一场的角色扮演。这种做法在闲聊时无伤大雅,但在解决复杂问题时,会带来两个缺陷:
平庸化陷阱: 它给出的答案往往是“正确但无用”的废话,因为它在模拟一个正确率高的普遍答案,而没有个性化见解。
阿谀奉承:当你表达某种偏见或错误观点时,它可能顺着你给出错误推断,以保持对话一致性。还会根据用户的输入模式来推测回应(例如 ChatGPT在思考模式下揭示了处理请求思维链......比如“用户说X,我必须用Y回应,我不能做Z,我会假设ABC......”这样的思考路径,让人啼笑皆非。)
所以在探讨复杂问题、优化代码、制定策略时,拟人化的“你”是最弱的提示方式。Prompt 设计错误做法(拟人化):“你是一个资深程序员,请帮我优化这段代码,告诉我你觉得哪里不好。”正确做法:“这段代码需要进行生产级优化。StackOverflow上最高赞的回答会指出哪些潜在的内存泄漏风险?资深架构师会如何重构它以提高可扩展性?”原理: 别问它想什么,问它模拟的那个群体会说什么。
多视角提示(Multi-view Prompting)
<img />
图由Nano Banana生成单一视角容易生成刻板、单薄的内容。要减少模型幻觉、偏差和信息遗漏,我们可以借鉴机器学习中的“集成思想”,为LLM提供多角色、多角度的讨论框架比如专家、怀疑者、反对派、风险分析者、利益相关方等。定义角色矩阵 “请从<角色A>、<角色B>、<角色C>三个角度分析这个问题。”引入立场对抗 “角色A提出方案,角色B将从风险角度反驳。请模拟此过程。”最终综合 “基于不同角色的讨论,请生成一个兼顾可行性、风险和长期影响的综合方案。”
要求LLM模拟一个专家群体进行辩论时,实际上是用户在强迫它挖掘潜在的多元语料,通过结合多个视角的预测来减少方差,生成比单一视角更全面、更深刻的洞察。
模型产出质量公式
许多AI用户不愿意花时间去调整创造力和与AI的交互方式。但在实践中,我越来越确信一个简单的结论:
AI产出 = (模型能力) ×(用户的领域认知)×(工作流程设计)
大多数人只盯着“模型能力”本身。但真正的差距在后两者。根据领域认知深度与协作心态的差异,使用者将走向三种截然不同的结局。1.盲目自信者当使用者缺乏领域认知却自认精通时,LLM 将沦为妄想的武器。模型确实能生成看似有趣的结果,但往往混杂着逻辑硬伤与事实谬误。缺乏专业鉴别力使得“垃圾信息”难以被过滤。尽管自动化测试能规避部分风险,但在复杂场景下,盲目依赖极易导致将臆想包装成看似精美的方案,实则毫无落地价值。2.僵化专家具备领域认知但拒绝重构工作流,甚至潜意识试图证明“AI 存在缺陷”的专家,只能获得线性的效率提升。此类使用者受困于路径依赖,仅将 LLM 视为处理琐碎任务的刚性工具。因未能发挥模型在发散性思维上的优势,其收益仅限于节省少许机械性劳动的时间,错失能力跃迁的机会。3.创造性操盘手深耕领域且具备开放性思维的使用者,懂得通过创造性地调整工作流,绕过模型短板以放大其优势,从而实现产出的指数级增长。这个公式解释了为什么同样是使 AI,有些人能做出惊艳的产品,而有些人只能生成垃圾。
AI的缺陷与人类的角色
很多人以为 “AI 越强,人类作用越弱。”恰恰相反,AI模型今天看似无所不能,但它没有自我稳定推理能力。具体表现在三方面:1)没有持续性的内部结构 没有类似人类神经系统的“中线”机制,无法在长推理链中保持稳定目标。2)没有具象反馈与因果建模它理解的是语言统计,而不是物理约束或真实因果关系。3)没有组织结构构建能力 当任务缺乏框架时,它无法主动构建;当框架不合适时,它也无法主动修正。这就导致其的输出质量,严重依赖用户提供的结构。换句话说:
用户没有结构,AI就混乱。
用户有结构但方法不适配,AI就打不准。
用户结构明确且适配,AI才能释放能力。
真正高水平的协作者提供的是连贯性、结构、目标感、因果框架。这正是AI本质上缺乏的部分,也是人类的根本价值所在。未来AI的突破需要让模型具备自我稳定、能维护长期目标和因果一致性的内部结构,才是真正指向 AGI 的路径。
写在最后
AI是一面镜子,映照出的是使用者的认知水平。不要期待AI是一个全知全能的智者,它是一个极其强大但需要精确制导的预测引擎。当你停止问“你怎么看”,开始设定“在这个情境下,最顶尖的思维模型应该是什么样”时;当你不再执着于模型参数,开始打磨你的领域认知与工作流时,你才真正跨过了 AI 应用的门槛。
来源:AI肖睿团队
免责声明:本文版权归原作者及原出处所有,内容为作者观点,并不代表本公众号赞同其观点及对其真实性负责。如涉及版权等问题,请及时与我们联系,我们立即更正或删除相关内容。本公众号拥有对此声明的最终解释权。
精彩推荐
教育部部长强调:要善用数据分析
高校新一轮审核评估结果,公布!
教育部最新文件!教师不得将AI用于下列情形
推荐20款国内免费AI生成PPT工具(2025最新)
超全教师实用爆款AI工具汇总
2025“人工智能+ ”教育行业应用白皮书
高校信创教育及教育信创化的建设探究
清华大学:DeepSeek与AI幻觉
教育部通知!公布一批高校评估结果
国家级教学成果奖一等奖获奖要点分析
高校专业人才培养方案修(制)订流程图
DeepSeek给高校教师的深度使用攻略!
清华大学,145页,《文科生零基础AI编程》(免费下载)
精选200个常用的DeepSeek提示词,建议收藏!
官方宣布!将创新创业业绩,作为高校教师职称评定等重要依据
北大版-86页DeepSeek黑科技手册流出!比清华版更炸裂
北大再更新,99页DeepSeek手册流出,真的太厉害了!
DeepSeek:教师必备的 20 个 AI 教学场景,重塑课堂新生态
DeepSeek洞察与大模型应用-人工智能技术发展与应用实践
推荐关注
页:
[1]