Lex Fridman 与 Nathan Lambert 和 Sebastian Raschka 进行了一场长达 4.5 小时的深度对话,全面解析 2026 年 AI 领域的技术前沿、产业格局和未来方向。
2026 年 AI 的核心主题是"后训练"时代的到来 -- Scaling Laws 依然有效但从预训练转向推理时间计算,开源模型在中美竞争中扮演关键角色,而 AI 编程工具正在重塑软件开发的本质。差异化变得微乎其微,用户忠诚度主要由习惯驱动。
从预训练到 AGI:一场横跨 AI 全栈的 4.5 小时深度对话。
从这场横跨 AI 全栈的 4.5 小时对话中提炼出的六大核心观点。
从预训练转向推理时间计算(inference-time scaling),RLVR(可验证奖励的强化学习)在数学和代码领域实现自我纠正。模型能力的提升不再只依赖更大的预训练数据集,而是更多地依赖推理阶段的计算投入。
中国实验室(DeepSeek、Minimax、Kimi)引领开放权重发布,美国以政策回应。差异化微乎其微,用户忠诚主要靠习惯。开源与闭源的界限正在模糊,模型能力趋于同质化。
80% 开发者享受 AI 辅助编程体验,资深开发者产出更多代码,但初级开发者面临技能退化风险。Cursor 等 Agent 工具实现全仓库级指导,正在重新定义"编程"这个职业的含义。
Groq $200亿、Scale AI $300亿等大型整合将重塑许可生态。开源模型构建者在 2026 年将多于 2025 年。行业正在经历从实验探索到商业整合的关键转折点。
软件自动化不到 10 年,研究和物理任务更长。能力呈锯齿状进展,不会出现奇点。AGI 不是一个单一的突破时刻,而是一系列渐进式能力提升的累积过程。
训练和推理芯片开始分离,吉瓦级集群推动基础设施竞争。CUDA 生态系统的深厚护城河使得替代方案难以在短期内撼动 NVIDIA 的主导地位,但推理侧的竞争正在加剧。