当你使用 AI 辅助编程时,你可能正在悄悄牺牲自己最宝贵的能力 —— 深度思考与原创性思维。marginalia.nu 在近期文章中抛出了一个刺耳却值得深思的命题:AI 让工程师变得无趣。这个判断并非情绪化批判,而是对当下 AI 辅助编程浪潮的冷静审视。在工具效率与思维深度之间,存在一个常被忽视的取舍关系,理解这种取舍,是每一位知识工作者在 AI 时代保持竞争力的前提。
被外包的思考:LLM 为何难以产生原创想法
大型语言模型的核心机制是概率预测,而非真正的推理与创造。它们擅长在海量文本中寻找模式,并将这种统计关联转化为流畅的输出。这意味着当你将思考任务外包给 AI 时,你得到的往往是「最可能的答案」而非「最深刻的洞见」。marginalia.nu 的作者尖锐地指出,即便模型将你的 prompt 包装成天才级别的思考,它们本质上仍然在生产平庸的、缺乏原创性的内容。这种特性在探索陌生领域时或许可以接受,但在需要真正创新的场景中 —— 比如撰写技术博客、设计系统架构、规划产品方向 —— 就成了致命缺陷。
更深层的问题在于,原创性想法的产生过程本身就无法被委托。人类获得原创洞见的途径是长时间沉浸于问题之中,在反复推敲、试错、重构的过程中逐步形成深刻的认知。这种认知沉淀是线性输出无法替代的,也是 AI 永远无法「代劳」的部分。当你跳过这个过程直接向 AI 索要结果时,你得到的是表层的、泛化的、缺乏根基的答案。
人机协作的伪命题:谁在塑造谁
一个常见的乐观叙事是「保持人类在循环中」—— 让 AI 处理执行细节,人类负责高层决策与方向把控。但 marginalia.nu 对此提出了根本性质疑:这个看似稳妥的分工模式实际上存在逆向塑造效应。原创想法恰恰诞生于被委托给 AI 的那部分工作中。当人类将构思、推敲、提炼的工作交给模型,自己仅保留「审核」与「批准」的角色时,人类的思维方式会逐渐向 AI 输出靠拢,而非相反。
这一观察与注意力经济学的视角高度契合。当 AI 承担了本应由人脑完成的认知工作,人类的注意力资源被重新分配 —— 从深度思考转向浅层审核。这种转变短期内似乎提高了效率,长期却可能导致思维肌肉的萎缩。就像长期使用计算器的学生心算能力下降一样,过度依赖 AI 的工程师可能在解决陌生问题时的独立思考能力逐渐退化。
工程师成长路径的隐形断裂
对于知识工作者而言,「困难时刻」往往是能力增长的关键节点。调试一个棘手的 bug、理解一个复杂的系统、设计一个创新的架构 —— 这些过程充满了认知挑战,但也正是这些挑战塑造了工程师的问题思维与系统直觉。当 AI 可以快速给出解决方案时,这种「挣扎时间」被压缩甚至消解。对于资深工程师,这可能只是效率的取舍;但对于早期职业开发者,这种缺失可能影响其核心竞争力的形成。
更值得警惕的是风格同质化问题。AI 模型倾向于生成「平均」的、符合常规的代码与方案,因为它们的训练数据本身就包含了大量「典型」解法。当工程师习惯性地接受 AI 建议而非独立设计时,个人技术风格与创新实验的空间会被压缩。整个行业的解决方案库可能因此趋于雷同,原创性与多样性在无形中流失。
实践框架:在效率与深度之间建立边界
面对这些风险,工程师可以建立一套明确的边界机制来保护思维深度。首先,识别并保留「人类专属任务」:核心架构设计、关键算法决策、安全敏感代码、性能优化 —— 这些需要深度思考的领域应由人工全程掌控,AI 仅在审查环节提供辅助。其次,在使用 AI 前先进行独立的结构化思考。即便只是列出几个要点或画一张简图,这个行为本身也是思维深度的训练。再次,定期进行「无 AI 训练」—— 通过编程练习、 side project 或解决全新问题来保持原始问题解决能力的活性。最后,将 AI 输出视为初级草稿而非成品,以批判者而非接受者的姿态进行二次加工,这种「创作者 - 批评者」的交替角色有助于维持高层次的认知参与。
资料来源
本文核心观点来自 marginalia.nu 的文章《AI makes you boring》,该文于 2026 年 2 月 19 日发布,对 AI 辅助编程的思维深度影响进行了系统性批判。