scripod.com

164: 当 AI “杀死” SaaS,与明略吴明辉聊多 Agent 网络、软件业转型和 AI 新组织

晚点聊 LateTalk
本期 podcast 深度探讨人工智能如何从根本上重塑企业软件范式、组织协作逻辑与知识工作者的价值定位。明略科技创始人吴明辉基于自身从 2020 年 EIP 失败到 2024 年章鱼项目落地的实践反思,系统阐述 AI 不是对现有流程的优化,而是对 SaaS 本质、模型价值归属、人机权责边界的一次重定义。
吴明辉指出,闭源 SaaS 模式已不可持续,未来价值将转向开源基础软件叠加 Agentic Service—— 即以多 Agent 协同网络(如章鱼)提供可解释、可归因、可定制的智能服务,并通过 Token 机制实现商业化。他强调‘Scaling Out’(横向扩展 Agent 网络)比‘Scaling Up’更符合人的价值:通过小模型、集体学习、个性化持续学习,在零售、广告等垂直场景落地,同时保障人类在需求判断、审美取舍(taste)、伦理担责等不可替代环节的主体性。反思过往 EIP 失败,他提出组织设计必须回应‘人的存在感’,拒绝为降本而裁员,转而为每位员工配备 AI 协作者。最终,AI 原生时代的核心竞争力不在于‘会思考’,而在于‘能判断’‘敢创造’‘愿共担’—— 技术终将服务于人对意义与联结的深层需求。
00:03
00:03
SaaS 软件闭源路线是死路
05:05
05:05
章鱼 Agent 打破人在任务执行中的瓶颈
11:20
11:20
龙虾自身记忆机制对某些事情理解不足,在通信系统中大家传递的是 ID
16:52
16:52
AI 无主体性,无法承担责任,让 AI 承担责任存在巨大伦理风险
28:39
28:39
团队核心成员身处 AI 世界,而所在行业及广告、零售等领域的领导者还处于上一时代
34:02
34:02
真正的 Agentic 工作状态是自己造生产力工具并形成自我闭环
40:34
40:34
龙虾需明确主人并由主人担责,OpenClaw 内置信任机制,公司内设品鉴者,品鉴信用越高,越多人的龙虾愿听其指令
46:23
46:23
用康德义务论约束人很难,但约束龙虾可行,因它可观察自身全部代码,而人无法客观观察自己
1:04:20
1:04:20
GUI VLA 模型的第一大场景是自动软件测试
1:10:46
1:10:46
AI 行业盈利拐点可能在一两年内出现
1:19:32
1:19:32
taste 基于人生经验难以用规则描述,AI 无法替代
1:22:00
1:22:00
应转向 Scaling Out,即横向发展,形成集体学习和组织智慧,保护个体和小创业团队的知识产权
1:30:05
1:30:05
真正的个性化 AI 需能迭代个人历史信息,还能接受当前语境信息
1:34:22
1:34:22
商业成功的真正判断标准是科学发现能力
1:43:01
1:43:01
若当时融到 5 亿美元,可能会去做大模型预训练,会花很多钱
1:52:01
1:52:01
AI 是‘我思故我在’,人类是‘我行故我在’
1:58:13
1:58:13
虽 AI 能完成现有工作,但仍要保护员工就业
1:59:06
1:59:06
若多数人拥有 Hope,Hope 就会产生力量
2:06:48
2:06:48
降低大模型门槛让所有知识工作者都能参与创作,这符合人类文明发展叙事
2:09:39
2:09:39
多数人不应相信会被 AI 取代,愿力才是人类不可替代的核心
2:14:43
2:14:43
理科生应像文科生一样培养,感受美和自身需求
2:18:04
2:18:04
‘think’本身有危险,而非某个专业
2:22:06
2:22:06
需求分析无唯一解,好软件因人而异。编码速度快不意味着能压缩时间,第一版软件需投入真实环境获用户反馈。写代码的人是本体论实践者,需求分析师是认识论实践者,产品最初设想与实际使用会有差异,需反复打磨,最终产物是本体与认识交互的结果。
2:24:30
2:24:30
未来八个月内会有采用 scaling out 逻辑的模型开源,能在细分领域表现出色且成本低