硅谷一直擅长创造新词汇,并且同样迅速地放弃它们。
去年,“vibe coding”这个词还被广泛提及,这是一种近乎即兴的编程方式:通过与模型对话来描述需求并快速生成代码。这种模式降低了软件生产的门槛,象征着一种轻快乐观的技术氛围。
然而,在今年的 Sequoia Ascent 峰会上,AI 先驱 Andrej Karpathy(以下简称 AK)却提出了一个更具时代意义的观点:“我从未像现在这样感觉自己落后于编程。”

这并不是在夸大其词或焦虑情绪,而是对未来趋势的一种预测。
在与红杉资本的对话中,AK 分享了他对 2026 年技术浪潮的看法:这不仅仅是模型升级或是产品迭代,而是一种更深层次的变化,涉及软件定义、工作结构以及人的位置都会被重新思考和调整。
AI Ascent 是由知名风险投资机构红杉资本主办的年度 AI 峰会,作为思想交流平台,它在 AI 行业中具有风向标的作用。
今年峰会的主题集中在 AGI(通用人工智能)的实际应用与智能体经济上。
大模型不再是单纯的加速器,而是一种全新的技术物种
历史上,新事物常常被误认为是旧事物的升级版或更快版本。
比如汽车最初被视为快速马车的替代品;互联网早期则被认为是电子传真机;智能手机刚出现时也被看作功能更强的电话。
AK 认为当前大模型正处于类似的阶段。许多企业依旧将 LLM 视作效率工具,即提高代码编写、文档总结和客户服务的速度。
但这只是表层叙事。
他提出了一套熟悉的概念框架:Software 1.0 是由人类定义规则;Software 2.0 是通过训练模型完成任务;而 Software 3.0 则是利用提示词来编程。大模型正在成为一种新形式的计算机,其中上下文窗口充当内存,提示词作为程序语言,模型本身则是解释器。
更值得注意的是,它不仅加快了旧软件的速度,还让某些旧软件失去了存在的必要性
他举例说,使用 vibe coding 技术开发了一个餐厅菜单应用,这个过程涉及到了 OCR识别、数据库映射和图像生成等多层调用链。
如今,只需上传一张菜品照片并要求模型“把图片覆盖到原菜单上”,大模型就能直接完成这项任务。
输入是图像,输出同样是图像,中间的软件环节已经被省略了。
他强调说整个 Menu Gen 应用其实显得多余,它是在旧范式下工作的产物,本不应该存在。
.md 文件可能取代传统的 .sh 安装脚本
AK 提到另一个显著的例子是软件安装方式的变化。
过去几十年间,开发者常编写 shell 脚本来适应不同操作系统和环境变量。这是一种典型的 Software 1.0 思维:明确指定所有路径。
如果直接用文字描述安装过程并告诉模型“按照这些步骤来执行”,为什么还要为软件安装写复杂的 Shell 脚本?LLM 是高级的英语解释器,能够智能地针对你的系统环境进行安装,并且实时调试。
因此,语言本身成为了执行层面。这预示着未来最重要的软件接口可能不是 GUI 或 API,而是模型可以理解的说明文本。
在每次技术范式转移时,人们首先想到的是如何加速或改进现状。然而,在这次讨论中,我们看到了一些功能或许根本不需要存在。

解释锯齿智能的概念,从验证性到经济学视角
AK 对大模型能力不均匀分布的解释是本次对话中最引人深思的部分之一。
今天的模型可以重构十万行代码库、发现安全漏洞和完成复杂数学证明,但有时却会建议你步行去“五十米外”的洗车店。
这种荒谬感并非偶然,而是系统性特征。他提出了“锯齿智能”这一概念:模型的能力并不是线性的增长曲线,而像高低不平的山脊线,某些领域能力大幅提升接近极限水平,而在其他方面则显得非常薄弱。
之前他对这种现象的解释是可验证性问题:代码、数学和博弈任务易于判断对错,适合强化学习优化。模型在这些领域取得了显著进步。
然而今年他的思考更加深入,加入了经济学视角来分析这个问题:“实验室行为/经济”理论指出资源有限,优先选择高价值或可量化的领域进行开发,如为 GPT-4 输入大量棋谱数据以提升其表现,在一些常识性问题上则可能表现不佳。
如果创业者想要进入已经被大模型覆盖的验证性领域,还有没有机会?

创业指北
AK 的回答是肯定的:当然有。他认为机会主要存在于垂直领域中。只要一个场景可以构建反馈机制并生成环境数据,创业公司就可以投入资源进行微调,并从中获得收益。
通用模型解决的是广泛问题,但许多行业价值体现在具体应用场景上。谁掌握了真实的数据、任务流程和评估标准,谁就能开发出更强的垂直系统。
当被问及还有哪些领域难以自动化时,AK 认为几乎所有事情最终都可以转化为可验证的问题,区别在于难度不同。即使是写作也可以通过多个大模型组成的评审机制来评分筛选。
这意味着许多工作并非天然不可替代,只是尚未建立起有效的评估体系。AI创业的关键可能不是寻找不会被自动化的领域,而是找到那些还未成为训练环境的问题。
AK 指出未来的产品和服务将不再是孤立的软件,而是一个由传感器、执行器和逻辑组成的复杂系统
他指出当前大多数数字系统还是为人类设计而非智能体。他不满之处在于开发文档仍然一步步指导人类该做什么操作。

智能体原生经济
以 Menu Gen 项目为例,最麻烦的部分不是编写代码而是复杂的部署过程。理想的“智能体原生”标志应是:只需给出一个提示词(例如“构建 Menu Gen”),智能体就能自动处理服务关联、DNS配置并直接上线,无需人类干预。
AK 认为未来重要的竞争力在于让数据结构、流程说明和系统接口对 LLM 更易理解,使智能体能读取执行协同工作。
由此一个新的职业领域正在浮现——智能体工程。它关注的不只是单纯编写代码,而是如何组织多个智能体完成复杂任务,并保持质量、安全与稳定交付。
这也导致招聘标准发生变化,企业评估重点将从算法题转向能否借助智能体完成真实项目的能力。
更长远来看,AK 提出了一个激进设想:未来神经网络可能承担大部分计算任务成为新的主计算层,而传统 CPU 则退居辅助位置仅负责少量确定性任务。
对话最后主持人提出了教育问题:当智能越来越廉价时,什么仍然值得深度学习?
AK 提到一条让他印象深刻并时常想起的推文。大意是你可以外包思考但不能外包理解。

人类剩下什么?
在一个 Agent 越来越能干的世界里,人类的价值可能不再是执行任务而是指导方向:哪些重要、真实和值得追求;什么风险可接受。
AK 认为人的思维需要某种形式的引导,而这种能力从根本上受限于个人的理解力。他认为自己也在成为一个认知瓶颈。
这也是他热衷于个人知识库、Wiki系统以及各种信息重组工具的原因,因为这些可以增强他的理解力。
每当同样的信息以不同方式呈现时都会产生新的见解,他会持续将读过的文章沉淀进自己的知识体系,并不断追问和交叉提问,让固定的知识生长出新的理解。
这背后揭示的是学习方法正在发生变化。谁能将海量信息压缩成个人认知地图并增强理解力,谁就更有优势。
而 AK 并不觉得自己极其擅长「理解」,如我们知道了什么、这件事为什么值得做、我该如何指导我的智能体。他认为,自己也正在成为一个认知瓶颈。
这也是他为什热衷于个人知识库、Wiki系统,以及各种能够重新组织信息的工具,因为,可以帮助他增强理解。
每当同一份信息被换一种结构呈现,就会获得新的洞察。他会把读过的文章持续沉淀进自己的知识系统,再不断追问、交叉提问,让固定知识生长出新的理解。
这背后揭示的,或许也是学习方式正在发生变化。谁能把海量信息压缩成自己的认知地图,增强理解,谁就更具优势。
