AI遇天花板?复杂性科学家为AI设计更智能的底层蓝图 | Engineering
作者:微信文章AI 是否因其逻辑与现实不匹配而遭遇瓶颈(天花板)?两位中国研究者持此观点。他们认为,当今的模型或许强大,却建立在摇摇欲坠且不匹配的基础之上——而复杂性科学或许能提供更优的解决方案蓝图。
AI 研究的最新思考
在《工程》期刊最新发表的同行评议论文中,郭力和李静海提出了一项大胆的突破性(重置)方案:调整 AI 系统的逻辑结构——包括数据集、模型、软件和硬件——以反映现实世界系统的多层次复杂性。
文章作者们指出,当前的 AI(尤其是神经网络)缺乏内在一致性。数万亿参数或许能产生结果,但这些结果并不能有意义地反映其所建模系统的时空模式。他们认为,这种脱节导致 AI 系统变得脆弱且不透明。
文章作者们提出应以介科学为基础进行范式转变,特别是采用竞争中协调(CIC)原理。通过融入 CIC 原理并采用多尺度建模理念,他们相信未来的 AI 系统有望突破黑箱预测的局限,实现可解释性与鲁棒性。
这一愿景需要协调研究对象、AI 模型、软件平台和计算硬件在逻辑结构上的一致性。他们建议从现实工程案例出发,然后基于反映物理系统中复杂性实际运作方式的统一逻辑,逐步构建数据、模型和基础设施体系。
这可能会改变什么
这一转变若被采纳,将产生深远影响。开发者将不再依赖单纯的数据规模推动 AI 进步,而是根据建模对象的特性来构建系统架构。试想 AI 系统如构建望远镜般来构建——具备层次分明的结构、精确校准的部件和严密的逻辑连贯性——而非黑箱式的猜测引擎。
对工程学科而言,这意味着能用更少数据实现更精准的模拟和预测;对 AI 安全性的倡导者来说,该研究为提升系统透明度提供了切实框架;而对受困于大语言模型幻觉的研究人员,这无疑是个警示:单纯扩大规模并非解决之道。
专家洞见
“它们在某些问题解决领域将超越人类,但也会犯下人类基本不会犯的错误”,OpenAI 联合创始人 Andrej Karpathy 在本月另一场主题演讲中表示。他的观点与郭力和李静海呼吁的“需要更缜密、可错误感知的架构”不谋而合。
GAZEON 观点:为何这篇论文当下至关重要
这篇论文读起来像是 AI 2.0 时代的哲学宣言——它用速度换取了实质。在这个由数十亿参数模型主导的领域里,郭力和李静海正指向一场更为悄然的革命:让AI 少一些模仿,多一些融合。
读者提示
你认为 AI 系统应该反映现实世界的运作方式—还是基于黑箱的性能就已经足够了?
论文来源:https://doi.org/10.1016/j.eng.2025.05.004
关于作者
Eli Grid 是一位科技记者,专注于报道人工智能、政策与创新的交叉领域。Eli 拥有计算语言学背景及十余年 AI 研究与全球科技战略报道经验,他以深度调查报道和清晰的数据驱动分析见长。其报道在技术突破与现实影响之间架起桥梁,为读者带来 AI 革命前沿及时、深刻的见解。Eli 的作品曾登上顶尖科技媒体的版面,并被全球学术机构与政策研究机构引用。
来源:GazeOn
更多内容
让AI更智能,李静海院士团队提出“四一致”新范式
人工智能在天气预报中有望发挥重要作用
内蒙古高原积雪中发现微塑料,值得关注
Engineering 2025年7月刊目录 |水能耦合科技前沿专题
Engineering征稿启事:人工智能赋能工程科技
https://mmbiz.qpic.cn/mmbiz_png/FAUfejyhX7aoz8dd0TuIYWErk7XFkRtP2dP69pvvXTrrV6rKU2FNmCLB9PSCJXO9luic0nY4hxLERu0tlcExuTw/640?wx_fmt=png&from=appmsg&wxfrom=5&wx_lazy=1&wx_co=1&randomid=rsrvtpkn&tp=webp
点赞/分享让更多小伙伴看到 ↓
页:
[1]