AI Odyssey
探讨人工智能科技的播客

Album
主播:
Pong_Pong、Leo宸、张子峰ARK
出版方:
0x_pongpong
订阅数:
6,914
集数:
54
最近更新:
6天前
播客简介...
『AI Odyssey』是一档探讨人工智能科技的播客。在这个节目中,我们会从 AI 技术、产品、资金,以及中美两大互联网市场之间的机遇和挑战展开讨论。 关于我们: 张子峰ARK:AI应用创业者,全栈产品经理,AI社群主理人,前尼尔森分析师 Leo Zhao:硅谷大厂高级机器学习工程师,GenAI LLM发烧友 PongPong:连续创业者,AI初创公司产品负责人 在各大音频平台都能搜到我们,欢迎点击订阅。 商务合作:+vx「aiodysseyai」添加注明来意 听众反馈:[email protected] 听友群:+vx「aiodysseyai」备注听友群
AI Odyssey的创作者...
AI Odyssey的节目...

CAMEL AI 创始团队专访:打造“开源版 Cowork”,如何从 0 到 1 搭建企业级 Agent 框架

AI Odyssey

主播的话 当行业还在迷信千亿参数模型时,CAMEL AI 已经靠一群“打工人”智能体深入企业内网,像真人一样点鼠标、填工单了。 作为全球首个 Multi-agent 框架的奠基团队,本期嘉宾带来了一个极具冲击力的反共识:未来的 Agent 进化,不靠更长的 Context,而靠更严密的组织架构。 在对话中,你会听到一些打破滤镜的实战真相:为什么 Agent 之间沟通多了反而会像人类一样“互相推诿”?为什么“模拟键鼠操作”这种看似笨拙的方案,反而是企业自动化的最优解? 别再盯着 Prompt 调优了。当这个写出第一篇 Multi-agent 论文的团队开始重注强化学习和环境模拟时,你就该意识到:Agent 的草莽时代结束了。想要看懂下半场,这期节目提供了最真实的坐标。 嘉宾介绍 Regina | CAMEL AI Founding Product Wendong | CAMEL AI Founding Engineer Celine | CAMEL AI Founding Growth 产品介绍 CAMEL AI 是世界上首个基于LLM构建的开源的多智能体框架,一直在探索 AI 多智能体的Scaling Law,包含大规模智能体系统、复杂环境、智能体自我进化三个关键维度。项目论文在2023年被 NeurlPS录用。 主播: Leo:硅谷大厂高级机器学习工程师,GenAI LLM发烧友 核心观点 商业定位分层: 开源社区(ToC)负责技术验证与品牌声量,桌面端产品(ToB)负责高价值场景(如 ERP/CRM)的营收落地。 架构效率论: Multi-agent 的核心价值不在于简单的“并行”,而在于通过任务拆解将 Long-Context 转化为 Short-Context,从而降低幻觉率。 Agent Scaling Law: 智能体能力的扩展由三要素决定:Agent 数量、环境交互(RL)的进化能力、合成数据的质量。 成本优化路径: 利用 KV Cache 配合 Context Splitting,在重复性任务中可降低 70%-80% 的 Token 成本。 终局预判: 未来的 Agent 系统将是“中心化调度 + 专有小模型执行”,通过强化学习(RL)在特定环境中自我进化,而非依赖单一千亿参数模型。 时间轴 01:20 从顶会论文到商业化:全球首篇 Multi-agent 论文背后的学术起源与商业转型逻辑。 04:40 商业策略:ToC 赚声量,ToB 赚营收 为什么企业级自动化(CRM/ERP)是目前最稳健的现金流场景? 06:47 Workforce:Coordinator 与 Worker 协作 拆解Agent“组织架构”:如何通过协调者实现任务的高度泛化。 07:28 核心壁垒:模拟键鼠的 Browser-use 摆脱 API 依赖,让 Agent 像真人一样直接操作浏览器界面。 15:48 预设四大原子 Agent 能力:从代码执行到多模态处理,支撑复杂任务的底层工具库。 18:57 架构之争:单体 Agent 的天花板 为什么长链路任务必须由多Agent协同?解决注意力衰减与幻觉。 22:04 重新定义 Agent Scaling Law:扩展定律不仅是算力,更是 Agent 数量、环境规模与数据的三位一体。 25:08 数字化组织:HR、CEO 与打工人 揭秘“图结构任务流”:如何像管理公司一样管理 Agent 系统。 30:10 安全底线:人在环路 (HITL) Agent 如何在登录验证等不确定场景中主动向人类求助。 31:33 协作悖论:为什么 Agent 也会“甩锅”? 过度沟通导致的 Token 浪费与执行效率下降的真实观察。 35:33 RL 下半场:垂直领域的专家进化 如何利用强化学习(RL)将行业 Know-how 植入Agent闭环。 37:38 Workflow Memory:复制成功路径 长期记忆机制:如何将偶然的成功转化为确定的生产力。 商业/技术洞察 技术架构对比:Single Agent vs Multi-Agent 基于wendong的技术分享整理 References * 开源框架 (GitHub): CAMEL AI (CAMEL) * 学术论文: CAMEL: Communicative Agents for "Mind" Exploration of Large Scale Language Society * Elgent(GitHub): The Open Source Cowork Desktop to Unlock Your Exceptional Productivity.

44分钟
99+
6天前

AI长期记忆产品化:连续创业者Kisson复盘如何做AI个人助手

AI Odyssey

编辑部注 本期节目录制于 2025 年 12 月。 录制期间,嘉宾 Kisson 担任 Tanka AI CEO。在节目正式发布时(2026 年 1 月),她已卸任该职务并开启了全新的创业旅程。 为了保持对话的完整性和当时语境的真实性,我们在音频和文案中保留了录制时的称谓与视角。Kisson 的职业变动恰恰印证了 AI 行业的一个核心特质——惟有“变化”本身是不变的。祝贺 Kisson,也期待她的下一个 Next Big Thing。 主播的话 进入 2026 年,大模型的上下文窗口已经卷到了千万级,但为什么 AI Agent 依然记不住你的喜好? 本期节目,我们邀请到连续创业者Kisson,深度复盘 AI 记忆的演进之路。 不同于市面上泛泛而谈的“AI 情感陪伴”,本期内容揭示了一个反直觉的行业真相:在 AI 时代,笨重的 B 端企业反而比 C 端用户跑得更快。 为什么互联网时代的“C 端包围 B 端”逻辑失效了? * 技术层面:从早期的 Replika 到如今的 HippoRAG,Memory 如何从简单的“存储”进化为具备抽象能力的 MemCell? * 交互层面:当自然语言真正成为新的 UI,LLM OS的形态发生了什么巨变? * 商业层面:为什么 Outcome-based pricing(结果付费)是检验 SaaS 产品力的唯一标准? 如果你认为 2026 年的 AI 创业已经没有机会,这期节目会告诉你——真正的护城河不再是模型参数,而是你对垂直场景“记忆深度”的理解。 嘉宾介绍 Kisson:ex-Tanka AI CEO。曾任 Mindverse(心识宇宙)联创及 COO。前TikTok商业化战略总监,前Facebook集团战略经理。关注AI agent和记忆模型。公众号:Kisson不聊广告改煲鸡汤了。推特:@KissonL 产品介绍 Tanka.ai 是一款人工智能驱动的业务软件,旨在简化运营、加强团队协作并推动中小企业的可持续增长。它学习并保留知识,优化决策,并将分散的数据转化为可操作的长期记忆。 网址:www.tanka.ai 主播: Leo:硅谷大厂高级机器学习工程师,GenAI LLM发烧友 核心观点 * 互联网定律失效:B 端采纳速度快于 C 端。因为企业有明确的 ROI 计算逻辑,而 C 端用户在缺乏“超级应用”之前,很难改变交互习惯。 * 记忆细胞的进化:未来的 Memory 不是堆砌数据,而是像生物一样,将“事件”抽象为结构化的记忆细胞,实现类似人类的“遗忘与强化”机制。 * 交互即系统:自然语言将成为新的图形界面,未来的操作系统不再是点击图标,而是理解意图的 LLM OS。 * 人的懒惰是护城河:引用 Andrej Karpathy 的 "Copilot for X" 观点——即使 AI 能力再强,人类“懒得去描述任务细节”的本性,依然是垂直领域创业公司最大的机会(帮你把任务描述清楚)。 时间轴 快速导航: * 如果你关心 技术架构演进 (RAG/MemCell) → 跳转 20:19 * 如果你关心 商业定价与 B 端策略 → 跳转 34:33 * 如果你想听 2026 行业宏观判断 → 从头开始听 2026 宏观视角:互联网定律为何失效 * 03:45 扎克伯格的早期实验室:从 Meta 到 Tanka 的路径演变。 * 06:22 B 端反超 C 端:为什么在 Memory 落地这件事上,企业比个人更积极? 交互范式:Natural Language as UI * 11:25 拒绝被动问答:Agent 必须具备 Proactive Trigger 能力。 * 15:30 LLM OS 概念:当自然语言取代图形界面,我们还需要 App 吗? 硬核拆解:Memory 技术栈演进 * 21:48 Replika 的启示:早期情感陪伴产品的成功与局限。 * 23:46 Mindverse 架构复盘:试图打造“USB 式记忆插件”的工程挑战。 * 24:00 学术界新框架:HippoRAG 与 Self-RAG 如何模拟人类海马体机制? * 27:35 MemCell:如何将非结构化对话转化为结构化记忆? * 24:55 评测困局:关于 Local Models与 Memory 结合的 Benchmarking 讨论。 商业洞察:定价策略与终局 * 34:33 定价心理学:为什么 Outcome-based pricing 是 B 端唯一解? * 43:09 重读 Andrej Karpathy,创业者的机会在“最后一公里”。 Kisson 结合 Tanka AI 的实战经验,总结了 B 端客户的采购心理: 以上就是本期的全部内容了,欢迎您的收听,我们下期再见~ PS:AI Odyssey 听友群正式开通了,添加 vx:aiodysseyai 带你一起看 AI

46分钟
1k+
2周前

对话朱俊帆 | 硅谷跑会实录:听到了哪些 Paper 没写的“内部噪音”?

AI Odyssey

主播的话 你的 Transformer 模型,是不是有一半的计算量都在“摸鱼”? 当所有人都在卷 SFT的时候,为什么硅谷的前沿研究者们却开始担心“模式坍缩”,转而把目光投向了 RLVR? 这期节目,我们没请 CEO,也没请投资人,而是拉来了一位最近在硅谷“跑会”跑到腿软的硬核朋友——俊帆。作为自动驾驶领域的 AI Engineer,他在短短两个月里,密集扫荡了 Pytorch Conference、Ray Summit、AMD Dev Day 甚至各类 Hackathon(还抽中了一块显卡!)。 我们把他在这些活动上听到的“内部噪音”和“前沿信号”做了一次深度 Dump。你会在节目里听到: * 斯坦福大佬 Christopher Manning 是如何通过“残差流抹除”实验,发现 Transformer 架构其实非常浪费的; * 为什么现在大家都说“Post-training”才是决胜局,以及 Thinking Machine 实验室是如何用轻量级的 LoRA 就能跑出逼近 97% 的 RL 效果; * 还有字节、Google 在Infra层面上为了解决万卡训练和 Agent 显存焦虑做的“变态”优化。 如果你是正在死磕模型效果的算法工程师,或者是对 AI 技术栈演进好奇的产品人,这期“硅谷前线观察报告”绝对能帮你省下几千美金的门票钱。 戴上耳机,我们一起去湾区现场看看。 嘉宾: 朱俊帆:芝加哥大学金融数学和佐治亚理工学院计算机科学毕业,曾在自动驾驶公司从事 AI Agent 和强化学习的研发工作;在芝加哥做了几年投行的量化金融模型。 欢迎查看嘉宾的 LinkedIn 了解更多信息 主播: Leo:硅谷大厂高级机器学习工程师,GenAI LLM发烧友 本期重点 * 00:47 嘉宾介绍 * 02:01 嘉宾的“特种兵”行程单:从 PyTorch Conf 到 AMD Dev Day * 05:43 斯坦福教授的新发现:Transformer 后半部分的计算量,其实都被“浪费”了? * 07:20 混合专家模型 (MoE) 的进化:如何用一半的计算量超越 Benchmark * 12:40 硅谷热词 RLVR:当数学定理成为“裁判”,RLHF 还有必要吗? * 15:57 像人类一样思考:解决长程推理难题的“分层推理”策略 * 19:40 过度 SFT 会导致“模式坍缩”?聊聊 Post-training 时代的 Trade-off * 22:06 创业公司福音:只用 LoRA 也能逼近 97% 的全量 RL 效果 * 25:00 显存不够怎么办?Red Hat 提出的“睡眠模式”与 GPU 热交换黑科技 * 28:53 字节跳动 VERL 揭秘:如何搞定万卡集群上的 RL 混合编排? * 34:06 Google 的 Agentic Browser:不只是看网页,而是直接运行代码 * 37:17 当 AI 遇见 NBA:从预测比赛到生物制药,Agent 的落地场景猜想 以上就是本期的全部内容了,欢迎您的收听,我们下期再见~ PS:AI Odyssey 听友群正式开通了,添加 vx:aiodysseyai 带你一起看 AI。

43分钟
1k+
1个月前

对话Macaron AI CEO陈锴杰(前百万用户MidReal创始人):如何打造AI个人生活助手?

AI Odyssey

主播的话: 我不知道你有没有这种感觉:跟现在的 AI 聊天,总觉得缺点“人情味儿”。 它很博学,但就是记不住你。你昨天刚跟它聊完自己爱喝拿铁,今天它就忘得一干二净。这种感觉,说真的,挺没劲的,对吧?就好像,你永远无法跟一个“金鱼记忆”的家伙成为真正的朋友。 这期我们邀请了Macaron 的创始人陈锴杰,就是要死磕这个“没劲”的问题。他想做的,就是让 AI 成为真正懂你的伙伴,一个记得你的喜好、能跟上你节奏、甚至在你需要时能主动搭把手的“人”。 听他聊 Macaron 的设计思路,我们真有好几次起鸡皮疙瘩,有点科幻照进现实的感觉。 比如,他们觉得市面上主流的记忆方案(RAG)太笨了,反而是用一套类似“随堂测验”的狠招,逼着 AI 形成真正的“肌肉记忆”。更绝的是,这个 AI 还能自己写代码,现场给你“变”出各种实用小工具。聊到最后我们才发现,想在苹果、谷歌这些巨头的眼皮底下做成事,靠的竟然不是技术,而是——“品味”?这个答案,让我们回味了很久… 所以,如果你也对那个冷冰冰的 AI 世界感到一丝厌倦,如果你也期待一个更温暖、更懂你的智能伙伴,或者你就是个搞产品的,想知道在 AI 时代怎么做出点不一样的东西——来,这期节目,就是为你准备的。 嘉宾: Kaijie Chen(X @KaijieChen12236),杜克大学毕业,Macaron AI 创始人兼 CEO,专注于运用强化学习打造 Personal Agent,为用户即时生成个性化生活小程序。此前创立互动网文平台 MidReal,积累超百万用户。 主播: Leo:硅谷大厂高级机器学习工程师,GenAI LLM发烧友 产品介绍: Macaron AI:世界上第一个 Personal AI Agent 官网:https://macaron.im/ 💡本期节目,与【AI UP】招聘社区联合呈现 正在寻找AI领域的理想机会?邮件至 [email protected],通过 AI Odyssey 合作邮箱,让招聘与求职更快一步! 🔥 火热招聘岗位:AI Agent Engineer!薪资25 - 35万美金 + 奖金,北美远程,由YC投资、营收达5000万美金的硅谷AI独角兽企业提供,要求有5 - 15年后端工程经验,且有1年以上AI Agent开发实操经历,面向华裔招聘~ Timeline: 01:17 记忆力 + 创造力:Macaron AI凭什么不一样? 02:50 脑洞大开:用户最爱让 AI 生成的 6 类生活小工具,你最需要哪一个? 04:27 AI 的情商,不止“你问我答”:一个好的 Personal Agent,有一半时间在主动“关心”你 06:28 “强化学习” VS “RAG”:告别金鱼记忆,如何打造 AI 的长期记忆 09:20 解密 AI 训练:400 道“记忆考题”如何让模型在 10 万行聊天后依然“记得你”? 13:30 “善变”是常态:AI 如何处理你“善变”的喜好 17:16 先交个朋友的商业模式:揭秘Macaron 独特的“杏仁”积分与用户激励模式 23:50 巨头夹缝中,创业公司的生存法则:Taste、记忆和速度 29:47 Personal Agent 的终极挑战:“向内”理解你,“向外”连接世界 33:31 创始人的愿景:做一个“有用又暖心”的朋友 以上就是本期的全部内容了,欢迎您的收听,我们下期再见~ PS:AI Odyssey 听友群正式开通了,添加 vx:aiodysseyai 带你一起看 AI。

35分钟
99+
3个月前
AI Odyssey的评价...

空空如也

EarsOnMe

加入我们的 Discord

与播客爱好者一起交流

立即加入

扫描微信二维码

添加微信好友,获取更多播客资讯

微信二维码

播放列表

自动播放下一个

播放列表还是空的

去找些喜欢的节目添加进来吧