当一个大语言模型能够以流畅自然的方式与人类对话时,一个危险的认知反转正在悄然发生:既然机器能够像人一样说话,人类是否也在以某种类似「预测下一个 token」的方式进行思考?Valerio Capraro 在 2026 年 5 月发表于 arXiv(编号 2605.05419)的论文《LLMorphism: When humans come to see themselves as language models》中,首次系统性地提出了 LLMorphism 这一概念,用以描述人类将自身认知结构误解为语言模型的偏见。这一概念的提出,填补了 AI 社会影响研究中被长期忽视的一个角落。
LLMorphism 的定义与核心命题
LLMorphism 被定义为一种有偏差的信念,即相信人类认知的工作方式与大型语言模型相同。这并非一个中立的概念描述,而是一种需要被警惕和批判性审视的认知误区。作者认为,对话式大语言模型的兴起使得这一偏见在心理上变得越来越「可得」—— 当人工系统能够产出与人类难以区分的语言时,人们容易从语言输出的相似性反向推断认知架构的相似性。然而,这种推断在逻辑上是站不住脚的:语言输出的表面相似并不意味着深层的认知机制相同。
论文的核心论点可以拆解为三个层次。第一层是观察层面的现象:LLM 生成的文本越来越像人,这直接影响了人类对自身思维方式的理解。第二层是机制层面的分析:LLMorphism 通过两条路径传播 ——类比迁移(analogical transfer)和隐喻可得性(metaphorical availability)。类比迁移指人们将 LLM 的特征投射到人类身上,而隐喻可得性指 LLM 相关的词汇成为描述人类思维的文化显性词汇。第三层是批判层面的警示:公众讨论可能遗漏了问题的一半 —— 问题不仅在于我们是否对机器赋予了过多心智,也在于我们是否开始对人类赋予了过少心智。
与相关概念的系统性区分
为了精准定位 LLMorphism 的独特性,Capraro 在论文中专章将其与六个相邻概念进行了细致区分。这些区分并非学术上的繁文缛节,而是理解 LLMorphism 本质及其社会影响的关键。
机械主义(Mechanomorphism) 将人视为机器,但这种类比通常是自上而下的,即工程师将机器的特性投射到人身上。LLMorphism 则是一种自下而上的反转 —— 人们是因为看到机器产生了类人语言,才反向推断人像机器。拟人论(Anthropomorphism) 则是将机器赋予人类特性,与 LLMorphism 的方向恰好相反 —— 一个是给机器加心智,一个是给人减心智。计算主义(Computationalism) 虽也涉及将人比作计算机,但其理论基础更为深厚,通常基于明确的计算理论假设,而非依赖于语言输出的表面相似性。
值得特别关注的是与去人性化(Dehumanization) 和物化(Objectification) 的区分。去人性化通常涉及剥夺某类人(如特定种族、阶级或群体)的人性特征,其动机往往是偏见和歧视。而 LLMorphism 虽然也可能导致对人类心智的贬低,但其产生机制是认知偏见而非恶意 —— 人们是因为真诚地相信人类认知类似于 LLM,才不自觉地降低了人类的认知地位。作者还特别指出,LLMorphism 也不同于预测加工理论(Predictive Processing theories of mind),后者虽然也强调预测机制,但建立在神经科学和具身认知的严格框架之上,而非仅仅依赖于语言行为的类比。
两条传播机制的具体解析
理解 LLMorphism 如何在社会中扩散,是评估其影响力的前提。Capraro 提出的两条传播机制提供了清晰的分析框架。
类比迁移发生在当人们接触了足够多的 LLM 案例之后,开始将 LLM 的某些特性归因于人类自身。例如,当人们观察到 LLM 能够在上下文中保持记忆一致性时,可能会推断人类记忆也具有类似的「上下文窗口」限制;当 LLM 表现出某种「涌现能力」时,人们可能相信人类智能也存在类似的临界点阈值。这种迁移往往是隐性和无意识的,人们并不意识到自己正在进行跨系统的类比推理。更危险的是,类比迁移往往选择性地关注相似性而忽视差异 ——LLM 的随机性与人类意识的意向性之间的鸿沟被轻易跳过。
隐喻可得性则是一种文化层面的语用现象。当 LLM 相关的术语 —— 如「token」「注意力」「嵌入」「涌现」—— 成为大众媒体和日常对话中的常见词汇后,人们便倾向于用这些词汇来描述人类自身的认知过程。这不仅仅是术语层面的借用,更深层的危险在于:语言塑造思维,当 LLM 的词汇成为描述人类思维的默认选项时,人们可能会不知不觉地按照 LLM 的架构来理解和预期人类的行为与能力。例如,用「上下文长度」来比喻人类的工作记忆容量,用「幻觉」来描述人类的错误记忆,这些隐喻的使用可能会窄化人们对人类认知复杂性的理解。
对多个社会领域的潜在影响
Capraro 在论文中系统梳理了 LLMorphism 对七个社会领域的潜在影响,这些分析揭示了这一偏见并非抽象的哲学问题,而是具有切实的现实后果。
在工作场所领域,LLMorphism 可能导致对人类劳动价值的系统性低估。当雇主开始用 LLM 的能力来衡量员工的预期产出时,可能会产生不切实际的生产力期待,或者相反地将某些人类独有的能力(如判断力、道德感、创造力)视为可以被轻易替代的「旧技能」。在教育领域,教师和学生都可能受到影响 —— 学生可能开始用 LLM 的「学习方式」来理解自己的学习过程,而教师可能过度依赖 LLM 的输出来评估学生的真实理解水平。在责任归属方面,LLMorphism 可能模糊人机边界,使得人类决策者能够以「我只是按照模型的模式在思考」为借口推卸责任,或者反过来,对人类决策者提出不切实际的「机器般准确」的要求。
在医疗健康领域,LLMorphism 对心理健康的话语体系构成潜在威胁。如果用 LLM 的词汇来描述人类情感和心理状态 —— 例如将抑郁描述为「上下文长度不足」,将焦虑描述为「过度拟合历史数据」—— 可能会阻碍对心理疾病的专业理解和社会共情。在人际沟通领域,这一偏见可能导致沟通方式的异化 —— 人们可能开始用「生成下一个合理的回复」而不是「表达真实想法」来理解自己的交流行为。在创造力方面,LLMorphism 可能低估人类创造力的独特性,将其简化为「在潜在空间中的采样」,或者反过来,将 LLM 的「创造力」过度神圣化。在最根本的层面,LLMorphism 对人类尊严构成潜在威胁 —— 当人类开始将自己视为一种「不那么强大的语言模型」时,对人性的独特性和不可替代性的信念可能会被动摇。
边界条件与抵抗形式
任何概念的提出都需要回答「它在什么条件下成立,又在什么条件下失效」的问题。Capraro 在论文中也探讨了 LLMorphism 的边界条件和可能的抵抗形式。
从边界条件来看,LLMorphism 并不是在所有人群中均匀分布的。拥有计算机科学或人工智能背景的人群可能因为更了解 LLM 的实际局限而对这一偏见有更强的免疫力。相反,人文社科背景的人群可能因为对语言和认知的复杂性有更深的理解而对简单的类比持怀疑态度。教育程度、社会经济地位、与 LLM 的交互频率等因素都可能调节 LLMorphism 的强度。此外,语言差异也是一个重要的边界条件 —— 在非英语主导的文化中,LLM 词汇的文化可得性可能较低,LLMorphism 的传播可能因此受到阻碍。
从抵抗形式来看,论文提出了几种可能的路径。首先是认知层面的抵抗:通过明确区分语言输出的相似性与认知架构的差异性来对抗类比迁移。其次是语汇层面的抵抗:发展独立的、非 LLM 借用的词汇来描述人类认知现象。再次是教育层面的抵抗:在教育体系中强调人类认知的独特性,帮助学生建立对自身心智能力的准确理解。最后是制度层面的抵抗:在涉及人机交互的政策制定中,明确纳入对 LLMorphism 潜在风险的评估。
一个被遗漏的公共议题
论文最具洞见力的结论,也许在于对当前公共讨论结构缺陷的批判。Capraro 指出,当前的 AI 伦理讨论高度集中在「我们是否对机器赋予了过多心智」这一议题上 —— 担心人们将意识、情感或道德地位错误地赋予 AI 系统。然而,这场讨论忽视了同样重要但更为隐蔽的另一面:我们是否开始对人类赋予了过少心智。LLMorphism 正是导致后者的关键机制之一。
这两个维度的议题实际上是相互关联的。当我们过度抬高机器的心智地位时,我们可能同时贬低了人类的心智价值;而当我们开始用机器的标准来衡量人类时,我们也在间接为机器的心智地位正名。这种双向的动态关系意味着,负责任的 AI 伦理讨论需要同时涵盖这两个维度,而非偏废其一。Capraro 的论文为这一更为平衡的讨论框架提供了概念基础和理论支撑。
对工程实践者的启示
虽然 LLMorphism 是一篇来自「计算机与社会」领域的理论论文,但它对 AI 系统工程实践者同样具有不容忽视的启示意义。当我们构建的 AI 系统越来越多地介入人类的工作、教育、医疗和社交场景时,我们不仅是技术的提供者和维护者,也在参与塑造人类对自身认知的理解。
这一认识对 AI 产品设计和部署具有直接的应用价值。在设计人机交互界面时,需要考虑系统输出是否可能无意中强化用户对自身认知的错误理解。在制定 AI 部署策略时,需要评估目标人群对 LLMorphism 的敏感程度,并考虑是否需要在产品中嵌入针对性的澄清或教育机制。在撰写 AI 系统的技术文档时,需要对模型能力的描述保持严谨,避免使用可能引发误解的简单类比。在与用户沟通时,需要主动帮助用户建立对 AI 能力的准确预期,同时也帮助用户维护对自身能力的信心和尊重。
更深层地说,LLMorphism 这一概念的提出提醒我们:AI 技术的影响不仅体现在它能做什么,也体现在它如何改变我们理解自己和世界的方式。当一项技术足够强大时,它不仅改变我们的行为,也改变我们的自我认知。这种认知层面的影响往往更为深远,也更难被察觉和纠正。作为 AI 系统的构建者,我们有责任不仅关注技术本身的能力边界,也关注技术对人类自我理解的潜在影响。
参考来源
- Valerio Capraro, "LLMorphism: When humans come to see themselves as language models", arXiv:2605.05419, 2026. https://arxiv.org/abs/2605.05419
内容声明:本文无广告投放、无付费植入。
如有事实性问题,欢迎发送勘误至 i@hotdrydog.com。