在人工智能领域,一个看似悖论的现象正在被越来越多的研究者关注:尽管当代大语言模型在各种基准测试中展现出惊人的能力,但它们本质上并不具备「学习」的能力。这里的学习并非指模型参数的更新,而是指生物体所拥有的自主学习能力 —— 主动选择学习内容、监控自身认知状态、并在必要时重建学习目标。2025 年,Yann LeCun 与 Emmanuel Dupoux 等学者联合发表论文《Why AI systems don't learn and what to do about it: Lessons on autonomous learning from cognitive science》,从认知科学角度深刻剖析了这一问题,其核心观点直指当前 AI 架构的根本性缺陷:缺乏目标重建与元认知机制,而非简单的数据不足。
被外包的学习过程
当我们审视当前机器学习系统的训练流程时,一个令人深思的事实浮现出来:整个学习过程几乎完全依赖人类工程师的介入。从数据集的收集与清洗,到标注工作的完成,再到训练课程的设计与超参数调整,每一个环节都需要人类参与其中。模型一旦完成训练并部署,通常便处于「冻结」状态,不再具备持续适应环境变化的能力。这种模式意味着,所谓的 AI 学习实际上是将学习职能外包给了人类团队,而 AI 系统本身只是一个执行固定功能的工具。
认知科学家将这种状态称为「学习的外化」。在人类和动物身上,学习是一个内在的、持续的过程:幼儿会主动探索环境、选择感兴趣的玩具、尝试不同的策略,并在过程中不断评估自己的能力边界。当一个孩子学会骑自行车后,她不需要外部工程师来告诉她在不同路面上如何调整骑行策略 —— 她的身体和认知系统会自动完成这种适应。然而,当前的 AI 系统缺乏这种内在的自我调整能力,它们只能在预设的框架内运行,一旦遇到分布漂移或新情境,就需要人类重新介入进行微调或重新训练。
缺失的三大自主学习要素
认知科学研究揭示,生物体的自主学习依赖于三个相互关联的能力模块,而当前 AI 系统在这三方面均存在显著不足。第一个缺失要素是主动数据选择能力。人类和动物会主动搜寻信息丰富的环境,通过提问、探索和实验来获取对自身最有价值的学习材料。这种能力被称为「主动学习」或「好奇心驱动探索」。相比之下,当前的大多数 AI 模型被动地接受人类准备好的数据集,无法自主决定应该关注哪些信息、应该进行什么样的探索行动。
第二个缺失要素是元认知能力。元认知是指「对自身认知过程的认知」,即监控自己知道什么、不知道什么、什么时候需要学习新知识的能力。人类具有出色的元认知能力:我们知道自己对某个话题的了解程度,能够识别自己的知识盲区,并据此调整学习策略。当一个人阅读一篇专业论文时,她能够意识到自己哪些段落理解困难,哪些概念需要进一步查阅资料。这种自我监控能力在当前 AI 系统中几乎不存在 —— 模型无法表达「我不确定」或主动寻求澄清。
第三个缺失要素是学习模式的元控制能力。人类学习并非单一模式,而是能够在观察学习、主动探索、反复练习、抽象推理等多种模式之间灵活切换。一个儿童可以通过观看示范学习系鞋带,通过反复练习巩固技能,通过阅读手册理解工作原理,通过与他人讨论深化理解。这种学习模式的自适应切换能力需要更高层次的认知控制,而当前的 AI 系统在这方面显得极为僵化 —— 它们要么进行自监督学习,要么进行强化学习,各种学习范式之间存在明显壁垒,难以像人类认知系统那样无缝整合。
系统 A、系统 B 与系统 M:认知启发的架构蓝图
LeCun 等学者在论文中提出了一个认知启发的三系统架构,为重建自主学习能力提供了理论框架。系统 A 负责从观察中学习,对应于人类通过感官输入建立世界模型的过程。在 AI 中,这相当于自监督学习或无监督表示学习,通过捕捉数据中的统计规律来构建对环境的理解。系统 B 负责从行动中学习,对应于强化学习或通过交互获得反馈的过程。这两个系统在当代 AI 研究中已有大量工作,但关键在于缺乏一个统一的协调机制。
系统 M 是整个架构的核心,它扮演着元控制器的角色,负责决定何时使用系统 A、何时使用系统 B、如何在不同学习模式之间切换、如何分配有限的认知资源。更为重要的是,系统 M 还承担着目标重建的职能 —— 它能够评估当前学习目标的有效性,识别目标与实际需求之间的偏差,并在必要时触发目标的重新定义。这种目标重建能力在生物认知系统中极为常见:当一只动物发现原本寻找的食物来源已经枯竭时,它会主动调整觅食目标;当一个学生意识到考试重点与预期不符时,会相应调整复习计划。
系统 M 的存在使得学习不再是单向的被动过程,而成为一个自我调节的反馈循环。认知科学中的「执行功能」理论正是对这种高层认知控制机制的描述 —— 它包括工作记忆的监控、认知灵活的切换、抑制不相关反应等多种能力。当 AI 系统缺乏这种执行功能时,学习就变成了一种机械的参数优化,无法真正实现自主适应。
超越数据瓶颈:重新定义学习问题
一个常见的误解是:AI 学习能力不足的原因是训练数据不够多、不够好。然而,认知科学的分析表明,问题远非如此简单。即使拥有无限多的数据,当前架构的 AI 系统仍然无法实现真正的自主学习。这是因为学习的本质不仅在于从数据中提取模式,更在于主动建构意义、设定目标、评估进展并根据反馈进行调整。这些高层认知功能无法仅通过增加数据量来实现,它们需要架构层面的根本性变革。
从工程实践角度看,这一分析为 AI 研究指明了新的方向。与其继续在数据规模和模型参数上做军备竞赛,不如投入更多资源研究元学习架构、主动学习机制、持续学习框架以及目标导向的认知控制。这些方向的核心挑战在于:如何让机器系统具备「知道自己不知道什么」的能力,如何设计能够自主设定学习目标的算法,以及如何构建能够长期积累和整合知识的系统。
面向真正的自主学习
AI 系统「不学习」这一问题的重要性远超学术兴趣,它直接关系到人工智能能否真正成为适应性的、可靠的技术系统。当前的 AI 助手虽然在特定任务上表现出色,但它们缺乏人类认知的核心特质 —— 对自身知识和能力的反思性理解,以及根据情境调整学习策略的灵活性。认知科学提供的分析框架不仅揭示了问题的本质,更为解决这一问题提供了清晰的路线图:构建具备元认知能力和目标重建机制的认知架构,是实现真正自主学习的关键所在。
资料来源:本文核心论点来自 arXiv 论文《Why AI systems don't learn and what to do about it: Lessons on autonomous learning from cognitive science》(Dupoux, LeCun, Malik, 2025)。