新闻 发表于 2025-11-29 12:53

AI的下半场:

作者:微信文章
今年上半年,OpenAI研究员姚顺雨发布了一篇有名的博文《The Second Half》,宣告AI主线程的游戏已进入下半场。这篇文章论述了AI上半场和下半场的界定,也给了我们一个很好的思考锚点。

https://mmbiz.qpic.cn/mmbiz_png/3jyHpXLWOLcbyUHDiaLzdhGh4rUibGkVDEWFljmOJ2eRgStqgEtwFOYtsKFuvGxAaqDy1kuiaVvH76AbYpOWBkrLw/640?wx_fmt=png&from=appmsg&watermark=1&tp=webp&wxfrom=5&wx_lazy=1#imgIndex=0

AI的上半场发生了什么?

https://mmbiz.qpic.cn/mmbiz_png/3jyHpXLWOLcbyUHDiaLzdhGh4rUibGkVDEWFljmOJ2eRgStqgEtwFOYtsKFuvGxAaqDy1kuiaVvH76AbYpOWBkrLw/640?wx_fmt=png&from=appmsg&watermark=1&tp=webp&wxfrom=5&wx_lazy=1#imgIndex=1

从击败国际象棋和围棋世界冠军,到在 SAT 和律师资格考试中超越大多数人类,再到赢得国际数学奥林匹克竞赛(IMO)和国际信息学奥林匹克竞赛(IOI)金牌。这些载入史册的里程碑——深蓝、AlphaGo、GPT-4 和 O 系列——背后,是人工智能方法论的根本性创新:搜索、深度强化学习、扩展和推理。

2012:AlexNet 震惊世界 → 深度学习时代开启


AlexNet 在 ImageNet 比赛中碾压传统方法

GPU(尤其 NVIDIA)成为 AI 加速的主力

计算机视觉快速爆发


2014:GAN(生成对抗网络)诞生


Ian Goodfellow 提出 GAN

生成式模型时代萌芽

后来 DALL·E、Stable Diffusion 的理论基础


2014–2015:Seq2Seq、Attention 雏形出现


深度学习开始进入 NLP

机器翻译、文本生成取得突破


2015:DeepMind DQN 打通 Atari 游戏


强化学习首次在像素级游戏上达到超人水平

开启 DRL(深度强化学习)时代


2016:AlphaGo 战胜李世石


全球 AI 认知被刷新

深度学习 + 蒙特卡洛树搜索 + 强化学习 的胜利

AI 开始影响大众认知


2017:AlphaGo Zero → 自我博弈时代


不依赖人类数据,仅靠自己训练

显示了 AI 从“学习人类”到“超越人类”的趋势


2017:Transformer 论文问世


《Attention is All You Need》

彻底改变 NLP 技术路线

去掉 RNN/Seq2Seq,全部基于注意力


2018:BERT 引爆预训练革命


Google 发布 BERT

NLP 大幅性能提升

“预训练 + 微调”成为新范式


2019:GPT-2 发布


展现了语言生成的惊人能力

虽然被称作 “太危险不开放”,但标志着 LLM 方向的可行性


2020:GPT-3 → 参数规模首次跳到百亿级


175B 参数

Zero-shot、Few-shot 技能首次出现

业界意识到:Scaling Law(规模定律)能自己涌现能力


2021:Diffusion 模型兴起(Stable Diffusion 前身)


DDPM、CLIP、VQ-VAE

文生图开始显现潜力


2021–2022:多模态开始突破


CLIP(OpenAI):理解图像与文字的关系

DALL·E / DALL·E 2:AI 绘画雏形

Flamingo:多模态基础模型


2022.11:ChatGPT 3.5的发布


RLHF(人类反馈强化学习)首次大规模应用

让 AI “能说人话”

引发全球产业链重构


2023:GPT-4、Claude、PaLM 2……全面进入大模型时代


GPT-4:更强的推理、语言理解和工具使用能力

大模型平台化(API、插件、Agent)

文生图、视频生成、声音生成全面爆发


回顾一下过去几年的关键事件,我们可以发现,人工智能的研究重点在于构建新的模型和训练方法。

在过去的研究逻辑中,为了解决一类问题,研究员们收集数据、改进训练方式、获得更好的模型......因为有新的训练方式的突破,出现了新的模型,解决了一类问题。

然而,从现在往回看,是不是事情可以反过来,只要获得了更好的模型,原来的一些基础问题,可以很简单的被解决。

举个例子,为了解决最短时间走完迷宫这个问题,我们设计了训练数据、优化了训练方式,最终得到了可以完美完成任务的模型,但是,这个模型可以走迷宫,却不能完成拼图游戏。这是为什么呢?

原因在于——模型缺少泛化能力。

然而,现在,

强化学习实现了泛化能力。LLM具有了推理能力。

那么,假设我们一开始训练的模型,就不是解决单一问题的模型,而是训练一个拥有人类先验知识的模型,根据模型的泛化能力,它是不是能够轻而易举的完成迷宫游戏、拼图游戏、以及其他更加复杂的游戏?

https://mmbiz.qpic.cn/mmbiz_png/3jyHpXLWOLcbyUHDiaLzdhGh4rUibGkVDEWFljmOJ2eRgStqgEtwFOYtsKFuvGxAaqDy1kuiaVvH76AbYpOWBkrLw/640?wx_fmt=png&from=appmsg&watermark=1&tp=webp&wxfrom=5&wx_lazy=1#imgIndex=5

人工智能在商业应用的问题

https://mmbiz.qpic.cn/mmbiz_png/3jyHpXLWOLcbyUHDiaLzdhGh4rUibGkVDEWFljmOJ2eRgStqgEtwFOYtsKFuvGxAaqDy1kuiaVvH76AbYpOWBkrLw/640?wx_fmt=png&from=appmsg&watermark=1&tp=webp&wxfrom=5&wx_lazy=1#imgIndex=6

很早之前,人工智能已经击败了国际象棋和围棋的世界冠军,在 SAT 和律师资格考试中超越了大多数人类,并在国际智力竞赛和国际数学奥林匹克竞赛中取得了金牌。但从经济和 GDP 来看,世界并没有发生太大变化。这背后的原因是什么呢?姚顺雨认为,这是效用问题 ——是人工智能面临的最重要的问题。

之前的AI应用,大多还是基于模型能力,围绕模型能力的边界来去生产现实世界的应用。如:AlphaGo、人脸识别、自动驾驶等。

https://mmbiz.qpic.cn/mmbiz_png/3jyHpXLWOLcbyUHDiaLzdhGh4rUibGkVDEWFljmOJ2eRgStqgEtwFOYtsKFuvGxAaqDy1kuiaVvH76AbYpOWBkrLw/640?wx_fmt=png&from=appmsg&watermark=1&tp=webp&wxfrom=5&wx_lazy=1#imgIndex=2

AI的下半场可能会怎么发展?

https://mmbiz.qpic.cn/mmbiz_png/3jyHpXLWOLcbyUHDiaLzdhGh4rUibGkVDEWFljmOJ2eRgStqgEtwFOYtsKFuvGxAaqDy1kuiaVvH76AbYpOWBkrLw/640?wx_fmt=png&from=appmsg&watermark=1&tp=webp&wxfrom=5&wx_lazy=1#imgIndex=3

姚顺雨提出,人工智能的后半程——从现在开始——将把重点从解决问题转移到定义问题。

在这个新时代,评估比训练更重要。我们不再仅仅问“我们能否训练一个模型来解决 X 问题?”,而是问“我们应该训练人工智能做什么,以及如何衡量真正的进展?”



从根本上重新思考评估方式 。这不仅意味着要制定新的、更严格的基准,还要从根本上质疑现有的评估体系 ,并创建新的体系,从而迫使我们突破既有模式,探索新的方法。



一旦打破常规,就有可能出现新的模式。

Maybe,AaaS(Agent-as-a-Service).

相关论文🔗:

https://ysymyth.github.io/The-Second-Half/
页: [1]
查看完整版本: AI的下半场: