对话 Groq 创始人: NVIDIA 市值将达 10 万亿 | 如何满足能源需求 | 为何中国在 AI 竞赛中落后于美国
播客翻译计划
2025/12/25
对话 Groq 创始人: NVIDIA 市值将达 10 万亿 | 如何满足能源需求 | 为何中国在 AI 竞赛中落后于美国
对话 Groq 创始人: NVIDIA 市值将达 10 万亿 | 如何满足能源需求 | 为何中国在 AI 竞赛中落后于美国

播客翻译计划
2025/12/25
本期节目深度对话 Groq 创始人乔纳森・罗斯 —— 这位曾主导谷歌第一代 TPU 设计的 AI 硬件先驱,从芯片架构师的视角出发,揭示 AI 算力竞争背后真实而紧迫的经济逻辑与物理约束。
乔纳森指出,AI 已进入可量化商业价值阶段:提示工程可在四小时内上线传统需数周的功能,且微秒级延迟直接影响用户转化。自研芯片并非为降本,而是突破英伟达在 HBM 内存上的买方垄断,夺回技术自主权;算力翻倍常带来收入同步翻倍,印证需求刚性。他破除 “中国模型更便宜” 的迷思 ——DeepSeek 等训练成本低,但推理成本实为美国开源模型的近 10 倍。能源是终极瓶颈:核能与挪威风电代表高密度、低成本电力路径,而许可审批迟滞正扼杀 AI 潜力。更颠覆的是,AI 不会导致失业,反而因通缩压低生活成本、加速提前退休,并催生大量新岗位,引发系统性劳动力短缺。
06:01
06:01
提示工程四小时完成功能上线且无人工编写代码与调试
20:25
20:25
Groq 的 LPU 交付周期比 GPU 提前 18 个月,这一优势受超大规模公司关注
30:49
30:49
核能如今已安全,日本正讨论重启核反应堆
43:14
43:14
氛围编程将如读写能力一样普及,成为各工作基本要求
47:11
47:11
AI 实施成本已下降 98%
1:03:37
1:03:37
英伟达五年后估值有望达十万亿
1:05:32
1:05:32
运行 KIMI 模型时,DRAM 内存用量是 SRAM 的 500 倍,导致整体成本更高
1:10:01
1:10:01
CUDA 锁定效应在训练方面不成立,仅在推理上适用
1:18:30
1:18:30
用伽利略推广望远镜类比大型语言模型,认为当下虽会让人感到渺小,但未来会发现智能无限美妙