117. 开源一段论文探索之旅:模型范式、Infra 和数据、语言、多模态的完整变迁史
张小珺Jùn|商业访谈录
2025/10/28
117. 开源一段论文探索之旅:模型范式、Infra 和数据、语言、多模态的完整变迁史
117. 开源一段论文探索之旅:模型范式、Infra 和数据、语言、多模态的完整变迁史

张小珺Jùn|商业访谈录
2025/10/28
本期节目邀请到美团光年之外的产品负责人谢青池,他用一年多时间深入研读 200 多篇 AI 领域经典论文,从入门到精通,逐步构建起对人工智能技术演进的系统性理解。他将这段探索历程完整开源,希望帮助更多人跨越门槛,直接与顶尖研究思想对话。
青池以非技术背景出发,通过重学数学、借助 AI 翻译工具和体系化课程,逐步攻克论文阅读难关。他从历史脉络和作者视角切入,梳理出 AI 发展的四大主线:模型范式变迁、基础设施与数据演进、语言模型迭代以及多模态融合。从 GPU 计算兴起、AlexNet 引爆深度学习,到 Transformer 引领架构革命;从 Scaling Law 指导训练优化,到 LAION 等开源数据集推动 AIGC 爆发;从 GPT 系列的能力跃迁,到 Stable Diffusion 实现生成效率突破。他强调,读论文是把握技术本质与长期趋势的关键,尤其在 AI 快速迭代的当下,唯有理解底层逻辑,才能看清方向、减少焦虑,并为产品与工程实践提供前瞻性判断。
01:35
01:35
读论文是探索 AI 新世界边界的方式
10:20
10:20
AI 是好老师,可提问获取知识,若担心答案有误可多试几个模型感受差距
1:47:52
1:47:52
理想中的 AGI 应自主选择工具而非依赖人工干预
2:20:06
2:20:06
理论上若计算与通信达 100% 利用率,可减少一半 GPU 卡使用
3:03:31
3:03:31
1.3B 参数的 InstructGPT 在指令遵循上超过 1750 亿参数的 GPT-3
3:49:09
3:49:09
Stable Diffusion 引入潜空间压缩,反直觉地提升模型效率与效果
4:08:17
4:08:17
读论文能让人不那么焦虑,了解更长期趋势