从 6560 篇 Hugging Face 论文看 AI 研究的三大转折
2025 年,AI 研究发生了一个意外的逆转。
被冷落多年的强化学习,以仅占 2.8% 的论文数量,获得了最高的平均关注度(42 点赞)——远超热门的 Agent(31)和 Multimodal(26)。更令人震惊的是,一个 7M 参数的小模型,在数学推理上击败了 OpenAI o1-preview。而年度榜首论文的 662 个点赞,来自一个你可能从未听说过的实验室。
这一年,Hugging Face Papers 平台共发布 6560 篇论文。只有 3% 能突破 100 点赞,仅 0.05% 达到 500+ 点赞。站在金字塔顶端的 15 篇论文,揭示了 AI 研究的三个核心转向:强化学习的复兴、中国力量的崛起、以及架构创新的持续探索。
"深度推理比网络深度更重要。" —— TRM (Less is More)
中国 AI 实验室在这一年表现尤为抢眼:DeepSeek、Qwen、MiniMax、InternVL 四支团队的工作跻身 Top 15,全部开源。这标志着在开源生态中,中国 AI 研究已从跟随者转变为引领者。
接下来,让我们深入这 15 个高光时刻。
| 排名 | 论文 | 点赞 | 月份 | 一句话亮点 |
|---|---|---|---|---|
| #1 | SAPO (Sharing is Caring) | 662 | 9月 | 去中心化 RL 训练,rollouts 共享提升 94% |
| #2 | Dragon Hatchling | 547 | 9月 | Transformer 与大脑的"缺失环节" |
| #3 | TRM (Less is More) | 507 | 10月 | 7M 参数超越 GPT-4o,递归深度 > 网络深度 |
| #4 | DeepSeek-R1 | 441 | 1月 | 纯 RL 推理,AIME 79.8%,开源全套方案 |
| #5 | A.S.E | 348 | 8月 | 首个仓库级 CVE 代码安全评估基准 |
| #6 | Qwen3 | 332 | 5月 | 思维/非思维动态切换,119 种语言 |
| #7 | GSPO | 316 | 7月 | 序列级优化,训练效率提升 40% |
| #8 | mHC | 306 | 12月 | 流形约束超连接,恢复恒等映射 |
| #9 | InternVL3 | 306 | 4月 | 原生多模态预训练,MMMU 72.2 逼近 GPT-4o |
| #10 | Foundation Agents | 303 | 3月 | 脑启发智能体架构综述 |
| #11 | MiniMax-01 | 300 | 1月 | 闪电注意力 + MoE,百万 token 上下文 |
| #12 | DINOv3 | 297 | 8月 | Gram anchoring 自监督视觉基础模型 |
| #13 | Code Foundation Models | 296 | 11月 | 29 家机构联合的代码模型实践指南 |
| #14 | rStar-Math | 288 | 1月 | MCTS 驱动,7B 模型 MATH 达 90.0% |
| #15 | Reflect, Retry, Reward | 277 | 5月 | 反思+重试+奖励,7B 超越 72B 基线 |