Back to Videos
Lex Fridman Podcast #490 2026.02.01

2026 AI 全景:LLM、编程、
Scaling Laws、中国、Agent、GPU、AGI

Lex Fridman 与 Nathan Lambert 和 Sebastian Raschka 进行了一场长达 4.5 小时的深度对话,全面解析 2026 年 AI 领域的技术前沿、产业格局和未来方向。

Channel
Lex Fridman
Guests
Nathan Lambert & Sebastian Raschka
Duration
4:30:00
Date
Feb 1, 2026

2026 年 AI 的核心主题是"后训练"时代的到来 -- Scaling Laws 依然有效但从预训练转向推理时间计算,开源模型在中美竞争中扮演关键角色,而 AI 编程工具正在重塑软件开发的本质。差异化变得微乎其微,用户忠诚度主要由习惯驱动。

Chapters / 章节目录

从预训练到 AGI:一场横跨 AI 全栈的 4.5 小时深度对话。

0:00 Introduction / 开场
4:52 Pre-training / 预训练
29:46 Mid-training / 中期训练
37:33 Post-training / 后训练
1:05:51 Text diffusion models / 文本扩散模型
1:20:00 Tool use / 工具使用
1:33:38 Continual learning / 持续学习
1:47:19 Long context / 长上下文
2:09:00 Coding / AI 编程
2:40:42 Robotics / 机器人
2:56:49 China / 中国 AI
3:14:04 AGI / 通用人工智能
3:21:20 Will AI replace programmers / AI 会取代程序员吗
3:36:29 Big acquisitions in 2026 / 2026 重大收购
3:51:02 Future of AI companies / AI 公司未来
4:08:08 Manhattan Project for AI / AI 曼哈顿计划
4:14:42 NVIDIA and GPUs / GPU 生态
4:22:48 Future of human civilization / 人类文明的未来

Core Takeaways / 核心要点

从这场横跨 AI 全栈的 4.5 小时对话中提炼出的六大核心观点。

1

Scaling Laws 依然有效但方向转变

从预训练转向推理时间计算(inference-time scaling),RLVR(可验证奖励的强化学习)在数学和代码领域实现自我纠正。模型能力的提升不再只依赖更大的预训练数据集,而是更多地依赖推理阶段的计算投入。

2

开源模型主导饱和市场

中国实验室(DeepSeek、Minimax、Kimi)引领开放权重发布,美国以政策回应。差异化微乎其微,用户忠诚主要靠习惯。开源与闭源的界限正在模糊,模型能力趋于同质化。

3

AI 编程的"甜蜜点"

80% 开发者享受 AI 辅助编程体验,资深开发者产出更多代码,但初级开发者面临技能退化风险。Cursor 等 Agent 工具实现全仓库级指导,正在重新定义"编程"这个职业的含义。

4

2026 重大收购预测

Groq $200亿、Scale AI $300亿等大型整合将重塑许可生态。开源模型构建者在 2026 年将多于 2025 年。行业正在经历从实验探索到商业整合的关键转折点。

5

AGI 时间线

软件自动化不到 10 年,研究和物理任务更长。能力呈锯齿状进展,不会出现奇点。AGI 不是一个单一的突破时刻,而是一系列渐进式能力提升的累积过程。

6

NVIDIA 的 20 年 CUDA 生态优势

训练和推理芯片开始分离,吉瓦级集群推动基础设施竞争。CUDA 生态系统的深厚护城河使得替代方案难以在短期内撼动 NVIDIA 的主导地位,但推理侧的竞争正在加剧。