← Back to Videos
Y Combinator 2025.07.29

Jared Kaplan:Scaling Laws 与通往人类级 AI 之路

Anthropic 联合创始人 Jared Kaplan 在 YC 活动中分享:从理论物理学家到 AI 研究者的转变,Scaling Laws 的发现历程,以及为什么预训练和强化学习的规模化正在可预测地推动 AI 走向人类水平

Speaker
Jared Kaplan
Interviewer
Diana
Duration
40:48
Channel
Y Combinator

「AI 进步的根本原因不是研究者突然变聪明了,而是我们找到了一种非常简单的方法来系统性地让 AI 变得更好,然后不断转动这个曲柄。」—— Jared Kaplan

👤 嘉宾介绍

J
Jared Kaplan
Anthropic 联合创始人
曾是理论物理学家,研究领域横跨粒子物理、宇宙学和弦理论。约 6 年前转入 AI 领域,是 Scaling Laws 的核心发现者之一,现为 Anthropic 联合创始人
D
Diana
YC 主持人
在 Jared 演讲结束后主持 Fireside Chat 环节,与 Jared 就 Scaling Laws、Claude 4、AI 应用前景等话题展开深度对话

📑 内容章节

00:00从理论物理到 AI:一个物理学家的跨界之路
02:24AI 模型的两个训练阶段:预训练与强化学习
04:26Scaling Laws 的发现:跨越数个数量级的精确趋势
06:13强化学习中的 Scaling Laws:从 Hex 到 AI 训练
08:20AI 能力的两个维度:灵活性与任务时间跨度
11:15通往人类级 AI 还缺什么:知识、记忆与监督
13:38面向未来的三条建议:构建「还不太能用」的产品
15:57Fireside Chat:Claude 4 带来了什么变化
18:09记忆功能:解锁更长时间跨度的任务
19:00AI 的判断力 vs 生成力:人类作为「管理者」的角色
21:18人机协作:从 Co-pilot 到端到端自动化
23:00AI 的「广度智能」:跨领域知识整合的巨大潜力
29:50Scaling Laws 会失效吗?物理学家的回答
31:30算力、效率与推理精度的未来
35:50任务时间跨度的指数增长:自我纠错是关键
38:00RL 训练的任务来源:AI 生成 + 人类设计

💡 核心观点

1

Scaling Laws:AI 领域的「物理定律」

Jared 在 2019 年发现,随着计算量、数据量和模型规模的增大,AI 模型的性能以惊人的精度遵循幂律改善。这种趋势跨越了多个数量级,「和你在物理学或天文学中看到的一样精确」。正是这一发现给了 Anthropic 团队坚定的信心:AI 将以可预测的方式持续变得更聪明。

2

AI 任务时间跨度每 7 个月翻一倍

研究组织 METR 发现,AI 模型能够完成的任务时间跨度正以约每 7 个月翻一倍的速度增长。从最初只能完成几分钟的任务,到现在能处理数小时的工作,未来几年可能扩展到数天、数周甚至数月的任务,最终百万个 AI 模型协同工作可能完成整个人类组织的工作。

3

通往 AGI 还需要四个关键要素

Jared 认为实现广义人类级 AI 还需要:(1) 组织知识 -- AI 需要像老员工一样理解公司上下文;(2) 记忆 -- 在超长任务中追踪进度、构建和检索相关记忆;(3) 精细监督 -- 不仅会写代码过测试,还要会讲好笑话、写好诗,有研究品味;(4) 从文本到多模态再到机器人的能力延伸。

4

物理学家的思维方式:问最「笨」的问题

Jared 将 Scaling Laws 的发现归功于物理学家的思维习惯:看大局、问最基础的问题。当所有人都说「大数据很重要」时,他只是问了一句「到底有多重要?」当别人说「学习是指数收敛」时,他会反问「你确定不是幂律?」正是这种对精确性的执着,让他发现了 AI 领域最重要的经验规律之一。