Album

AI Odyssey

探讨人工智能科技的播客

Pong_Pong、Leo宸、张子峰ARK 0x_pongpong
7,090 订阅 55 集 8小时前
播客简介
『AI Odyssey』是一档探讨人工智能科技的播客。在这个节目中,我们会从 AI 技术、产品、资金,以及中美两大互联网市场之间的机遇和挑战展开讨论。 关于我们: 张子峰ARK:AI应用创业者,全栈产品经理,AI社群主理人,前尼尔森分析师 Leo Zhao:硅谷大厂高级机器学习工程师,GenAI LLM发烧友 PongPong:连续创业者,AI初创公司产品负责人 在各大音频平台都能搜到我们,欢迎点击订阅。 商务合作:+vx「aiodysseyai」添加注明来意 听众反馈:[email protected] 听友群:+vx「aiodysseyai」备注听友群
节目

对话Youmind增长工程师:AI产品增长和PH打榜的实战经验

AI Odyssey

在 AI 时代,得益于大模型的进化,做出一款软件的门槛正在前所未有地降低。但当我们沉浸在这些技术带来的“魔法时刻”时,常常会遭遇一个更为残酷的现实:产品做出来之后,究竟该怎么推出去?怎么让用户掏出真金白银来订阅 ? 这几乎是所有技术背景创业者都会经历的阵痛。本期节目的嘉宾宗源,正是这段阵痛的亲历者。他本是一名前端开发者,在 2024 年创业的摸爬滚打中,硬生生“逼”自己转型成了在泥坑里找流量的增长工程师。 在这一期里,你听不到虚无缥缈的宏大叙事,全是一线打仗的生存指南。从如何利用 AI 全自动监控竞品发布实现热点截流 ,到在 Product Hunt 上肉搏互换票仓;从拆解 GitHub 高权重外链的真实门槛,到复盘同行“700万流量却只有极低付费率”的血泪教训。 如果你也是那个在屏幕前为 AI 产品流量而焦虑的创业者,希望今天这些实打实的操盘经验,能帮你拨开一些迷雾。 嘉宾介绍 宗源(推特:jaredliu_bravo):YouMind 新手增长工程师,近三个月拿到全站 50%+ 流量,操盘过 2 次 PH 打榜(日榜第一,年榜第六)。关注 Growth Hack、自动化、内容创作。过去在网易、阿里、A+轮创业公司做前端开发和TL,24 年组建过小团队创业做 Tidyread(现已被 OpenClaw 颠覆)。 产品介绍 YouMind(youmind.com):YouMind 是一款 All in One 的 AI 学习和创作工作台,通过 AI 帮助您收集、整理资料,基于资料进行学习和创作,产出令您愉悦的图文、播客、视频等。 主播介绍 Leo:硅谷大厂高级机器学习工程师,GenAI LLM发烧友 核心观点 增长终极目标是建立从拉新到付费的订阅飞轮。Wordware 700万 UV 虽带来 20 多万注册,但注册到付费订阅率仅约 3%-4%,证明了受众错位会导致严重的流量浪费。 AI工具增长方案的落地成本极低,借助 AI(如 Openclaw)可实现全自动监控竞品模型发布并连夜生成推广物料的营销闭环。 内容运营与增长的核心引擎是“Skill”(前身为 Shortcut),通过激励用户在社媒自发传播其构建的自动化工作流,实现产品的无感裂变。 提升 Domain Rating (DR) 并在 SEO 中获取非品牌类“信息词”搜索排名是关键,突破 200-300 Stars 的 GitHub 仓库可提供 96+ 极高权重的 Do-follow 外链。 Product Hunt 打榜胜负取决于社媒互换票仓网络的规模,且产品必须找到像 Chris Messina 这样能原话保证 100% 被 Feature 的头部 Hunter 进行发布。 时间轴 * 02:05 嘉宾介绍:从前端开发者向产品增长工程师的转型路径与契机。 * 04:01 核心判断:产品增长的唯一目标是建立赚钱的付费订阅飞轮。 * 04:42 时代差异与渠道变化:高保真模型带来的“魔法时刻”口碑效应,以及 ChatGPT、Openclaw 等带来的新兴增长渠道。 * 06:24 极客案例:利用 Openclaw 监控 Nano Banana 2 发布,实现连夜自动撰写分发对接文案的全链路自动化提效。 * 08:05 截流策略:在 Seedance 2.0 模型未发布前,通过提示词站点进行跨端注册转化。 * 12:45 社媒分发:定准海外受众与创作者,重仓 X 与 Facebook。 * 16:36 核心裂变引擎:揭秘 YouMind 内容运营抓手“Skill”(前身为 Shortcut),利用 RSS 日报、图片封面生成等工作流,驱动创作者在社媒进行二次传播。 * 18:19 社媒避坑:Facebook 多语言群组硬广效果极差,需转为联系活跃贡献者做红人营销。 * 20:18 X 机制:算法高度依赖日更,中断将导致流量池评级断崖式下跌。 * 22:06 Reddit 局限:易遭遇 Shadowban,难以持续发广告,更适合作为 SEO 关键词占位的辅助。 * 23:27 SEO 核心:Domain Rating (DR) 对非品牌类信息词排名的决定性作用。 * 26:34 天工AI案例拆解:通过关键词 Sora/Seedance 热点将博客流量做到整站 30%,并利用页面顶部/底部多重 CTA 按钮实现转化。 * 28:59 外链起步:通过低价付费导航站与资源型提示词站群进行低成本 DR 堆量。 * 30:31 高阶外链:通过 GitHub 建立开源仓库,突破 200-300 Stars 后获取 DR 高达 96-97 的 Do-follow 链接。 * 31:30 Product Hunt 打榜内幕:平台砍掉水分后YouMind揭榜三榜第一的戏剧性过程,以及X/Linkedin票仓互换网络搭建。 * 35:03 100% Feature 秘籍:付费咨询或联系为数不多(如 Chris Messina、前 PH CEO)能保证 100% 被 Feature 的头部 Hunter。 * 37:31 漏斗数据复盘:YouMind提示词站超 20% 的高注册率;对比 Wordware 700万 UV 转化 20 多万注册用户,但付费订阅率仅 3%-4% 的受众错位反思。 * 39:40 行业预判:类比写代码门槛的下放,Web Creating 将成为未来 1-3 年极大的增长变量,用户自发传播AI Skill 将引爆市场。 AI产品核心流量分发渠道与实操策略对比 术语表 * Informational Keywords (信息词) vs. Brand Keywords (品牌词):品牌词指用户直接搜索“YouMind”带来的流量(属于品牌推广的功劳);信息词指用户为了解决特定痛点而搜索的通用词汇。能在信息词上获取高自然搜索流量 (Organic Search),才是验证 SEO 动作真正有效的核心指标。 * Domain Rating (DR):域名评级。反映网站在搜索引擎眼中的权威度(类似大佬背书)。分数越高(如达到 50 以上),发布的博文越容易在非品牌类的信息词搜索中获取高排名。 * Do-follow / No-follow 链接:Do-follow 允许搜索引擎蜘蛛追踪并传递权重到目标网站,成功获取此类链接能实质性提升自身站点的 SEO 效果。 * One-Tap Login:一键登录机制(如网页右上角自动弹出的 Google 授权登录)。在不增加用户点击成本的情况下,可直接提升 3% 至 8% 的注册转化率。 相关资源 * AI模型与工具:Nano Banana 2 / Nano Banana Pro, Seedance 2.0, Kimi K2.5, NotebookLM, Manus, Openclaw, ChatGPT * SEO与外链资源:thereisaaiforthat (导航站), submitDRs (AI TDK作者的外链服务) * 行业参考案例:天工 (skywork.ai) , Wordware 以上就是本期的全部内容了,欢迎您的收听,我们下期再见~ PS:AI Odyssey 听友群正式开通了,添加 vx:aiodysseyai 带你一起看 AI

42分钟
4
8小时前

CAMEL AI 创始团队专访:打造“开源版 Cowork”,如何从 0 到 1 搭建企业级 Agent 框架

AI Odyssey

主播的话 当行业还在迷信千亿参数模型时,CAMEL AI 已经靠一群“打工人”智能体深入企业内网,像真人一样点鼠标、填工单了。 作为全球首个 Multi-agent 框架的奠基团队,本期嘉宾带来了一个极具冲击力的反共识:未来的 Agent 进化,不靠更长的 Context,而靠更严密的组织架构。 在对话中,你会听到一些打破滤镜的实战真相:为什么 Agent 之间沟通多了反而会像人类一样“互相推诿”?为什么“模拟键鼠操作”这种看似笨拙的方案,反而是企业自动化的最优解? 别再盯着 Prompt 调优了。当这个写出第一篇 Multi-agent 论文的团队开始重注强化学习和环境模拟时,你就该意识到:Agent 的草莽时代结束了。想要看懂下半场,这期节目提供了最真实的坐标。 嘉宾介绍 Regina | CAMEL AI Founding Product Wendong | CAMEL AI Founding Engineer Celine | CAMEL AI Founding Growth 产品介绍 CAMEL AI 是世界上首个基于LLM构建的开源的多智能体框架,一直在探索 AI 多智能体的Scaling Law,包含大规模智能体系统、复杂环境、智能体自我进化三个关键维度。项目论文在2023年被 NeurlPS录用。 主播: Leo:硅谷大厂高级机器学习工程师,GenAI LLM发烧友 核心观点 商业定位分层: 开源社区(ToC)负责技术验证与品牌声量,桌面端产品(ToB)负责高价值场景(如 ERP/CRM)的营收落地。 架构效率论: Multi-agent 的核心价值不在于简单的“并行”,而在于通过任务拆解将 Long-Context 转化为 Short-Context,从而降低幻觉率。 Agent Scaling Law: 智能体能力的扩展由三要素决定:Agent 数量、环境交互(RL)的进化能力、合成数据的质量。 成本优化路径: 利用 KV Cache 配合 Context Splitting,在重复性任务中可降低 70%-80% 的 Token 成本。 终局预判: 未来的 Agent 系统将是“中心化调度 + 专有小模型执行”,通过强化学习(RL)在特定环境中自我进化,而非依赖单一千亿参数模型。 时间轴 01:20 从顶会论文到商业化:全球首篇 Multi-agent 论文背后的学术起源与商业转型逻辑。 04:40 商业策略:ToC 赚声量,ToB 赚营收 为什么企业级自动化(CRM/ERP)是目前最稳健的现金流场景? 06:47 Workforce:Coordinator 与 Worker 协作 拆解Agent“组织架构”:如何通过协调者实现任务的高度泛化。 07:28 核心壁垒:模拟键鼠的 Browser-use 摆脱 API 依赖,让 Agent 像真人一样直接操作浏览器界面。 15:48 预设四大原子 Agent 能力:从代码执行到多模态处理,支撑复杂任务的底层工具库。 18:57 架构之争:单体 Agent 的天花板 为什么长链路任务必须由多Agent协同?解决注意力衰减与幻觉。 22:04 重新定义 Agent Scaling Law:扩展定律不仅是算力,更是 Agent 数量、环境规模与数据的三位一体。 25:08 数字化组织:HR、CEO 与打工人 揭秘“图结构任务流”:如何像管理公司一样管理 Agent 系统。 30:10 安全底线:人在环路 (HITL) Agent 如何在登录验证等不确定场景中主动向人类求助。 31:33 协作悖论:为什么 Agent 也会“甩锅”? 过度沟通导致的 Token 浪费与执行效率下降的真实观察。 35:33 RL 下半场:垂直领域的专家进化 如何利用强化学习(RL)将行业 Know-how 植入Agent闭环。 37:38 Workflow Memory:复制成功路径 长期记忆机制:如何将偶然的成功转化为确定的生产力。 商业/技术洞察 技术架构对比:Single Agent vs Multi-Agent 基于wendong的技术分享整理 References * 开源框架 (GitHub): CAMEL AI (CAMEL) * 学术论文: CAMEL: Communicative Agents for "Mind" Exploration of Large Scale Language Society * Elgent(GitHub): The Open Source Cowork Desktop to Unlock Your Exceptional Productivity.

44分钟
1k+
1个月前

AI长期记忆产品化:连续创业者Kisson复盘如何做AI个人助手

AI Odyssey

编辑部注 本期节目录制于 2025 年 12 月。 录制期间,嘉宾 Kisson 担任 Tanka AI CEO。在节目正式发布时(2026 年 1 月),她已卸任该职务并开启了全新的创业旅程。 为了保持对话的完整性和当时语境的真实性,我们在音频和文案中保留了录制时的称谓与视角。Kisson 的职业变动恰恰印证了 AI 行业的一个核心特质——惟有“变化”本身是不变的。祝贺 Kisson,也期待她的下一个 Next Big Thing。 主播的话 进入 2026 年,大模型的上下文窗口已经卷到了千万级,但为什么 AI Agent 依然记不住你的喜好? 本期节目,我们邀请到连续创业者Kisson,深度复盘 AI 记忆的演进之路。 不同于市面上泛泛而谈的“AI 情感陪伴”,本期内容揭示了一个反直觉的行业真相:在 AI 时代,笨重的 B 端企业反而比 C 端用户跑得更快。 为什么互联网时代的“C 端包围 B 端”逻辑失效了? * 技术层面:从早期的 Replika 到如今的 HippoRAG,Memory 如何从简单的“存储”进化为具备抽象能力的 MemCell? * 交互层面:当自然语言真正成为新的 UI,LLM OS的形态发生了什么巨变? * 商业层面:为什么 Outcome-based pricing(结果付费)是检验 SaaS 产品力的唯一标准? 如果你认为 2026 年的 AI 创业已经没有机会,这期节目会告诉你——真正的护城河不再是模型参数,而是你对垂直场景“记忆深度”的理解。 嘉宾介绍 Kisson:ex-Tanka AI CEO。曾任 Mindverse(心识宇宙)联创及 COO。前TikTok商业化战略总监,前Facebook集团战略经理。关注AI agent和记忆模型。公众号:Kisson不聊广告改煲鸡汤了。推特:@KissonL 产品介绍 Tanka.ai 是一款人工智能驱动的业务软件,旨在简化运营、加强团队协作并推动中小企业的可持续增长。它学习并保留知识,优化决策,并将分散的数据转化为可操作的长期记忆。 网址:www.tanka.ai 主播: Leo:硅谷大厂高级机器学习工程师,GenAI LLM发烧友 核心观点 * 互联网定律失效:B 端采纳速度快于 C 端。因为企业有明确的 ROI 计算逻辑,而 C 端用户在缺乏“超级应用”之前,很难改变交互习惯。 * 记忆细胞的进化:未来的 Memory 不是堆砌数据,而是像生物一样,将“事件”抽象为结构化的记忆细胞,实现类似人类的“遗忘与强化”机制。 * 交互即系统:自然语言将成为新的图形界面,未来的操作系统不再是点击图标,而是理解意图的 LLM OS。 * 人的懒惰是护城河:引用 Andrej Karpathy 的 "Copilot for X" 观点——即使 AI 能力再强,人类“懒得去描述任务细节”的本性,依然是垂直领域创业公司最大的机会(帮你把任务描述清楚)。 时间轴 快速导航: * 如果你关心 技术架构演进 (RAG/MemCell) → 跳转 20:19 * 如果你关心 商业定价与 B 端策略 → 跳转 34:33 * 如果你想听 2026 行业宏观判断 → 从头开始听 2026 宏观视角:互联网定律为何失效 * 03:45 扎克伯格的早期实验室:从 Meta 到 Tanka 的路径演变。 * 06:22 B 端反超 C 端:为什么在 Memory 落地这件事上,企业比个人更积极? 交互范式:Natural Language as UI * 11:25 拒绝被动问答:Agent 必须具备 Proactive Trigger 能力。 * 15:30 LLM OS 概念:当自然语言取代图形界面,我们还需要 App 吗? 硬核拆解:Memory 技术栈演进 * 21:48 Replika 的启示:早期情感陪伴产品的成功与局限。 * 23:46 Mindverse 架构复盘:试图打造“USB 式记忆插件”的工程挑战。 * 24:00 学术界新框架:HippoRAG 与 Self-RAG 如何模拟人类海马体机制? * 27:35 MemCell:如何将非结构化对话转化为结构化记忆? * 24:55 评测困局:关于 Local Models与 Memory 结合的 Benchmarking 讨论。 商业洞察:定价策略与终局 * 34:33 定价心理学:为什么 Outcome-based pricing 是 B 端唯一解? * 43:09 重读 Andrej Karpathy,创业者的机会在“最后一公里”。 Kisson 结合 Tanka AI 的实战经验,总结了 B 端客户的采购心理: 以上就是本期的全部内容了,欢迎您的收听,我们下期再见~ PS:AI Odyssey 听友群正式开通了,添加 vx:aiodysseyai 带你一起看 AI

46分钟
1k+
2个月前

对话朱俊帆 | 硅谷跑会实录:听到了哪些 Paper 没写的“内部噪音”?

AI Odyssey

主播的话 你的 Transformer 模型,是不是有一半的计算量都在“摸鱼”? 当所有人都在卷 SFT的时候,为什么硅谷的前沿研究者们却开始担心“模式坍缩”,转而把目光投向了 RLVR? 这期节目,我们没请 CEO,也没请投资人,而是拉来了一位最近在硅谷“跑会”跑到腿软的硬核朋友——俊帆。作为自动驾驶领域的 AI Engineer,他在短短两个月里,密集扫荡了 Pytorch Conference、Ray Summit、AMD Dev Day 甚至各类 Hackathon(还抽中了一块显卡!)。 我们把他在这些活动上听到的“内部噪音”和“前沿信号”做了一次深度 Dump。你会在节目里听到: * 斯坦福大佬 Christopher Manning 是如何通过“残差流抹除”实验,发现 Transformer 架构其实非常浪费的; * 为什么现在大家都说“Post-training”才是决胜局,以及 Thinking Machine 实验室是如何用轻量级的 LoRA 就能跑出逼近 97% 的 RL 效果; * 还有字节、Google 在Infra层面上为了解决万卡训练和 Agent 显存焦虑做的“变态”优化。 如果你是正在死磕模型效果的算法工程师,或者是对 AI 技术栈演进好奇的产品人,这期“硅谷前线观察报告”绝对能帮你省下几千美金的门票钱。 戴上耳机,我们一起去湾区现场看看。 嘉宾: 朱俊帆:芝加哥大学金融数学和佐治亚理工学院计算机科学毕业,曾在自动驾驶公司从事 AI Agent 和强化学习的研发工作;在芝加哥做了几年投行的量化金融模型。 欢迎查看嘉宾的 LinkedIn 了解更多信息 主播: Leo:硅谷大厂高级机器学习工程师,GenAI LLM发烧友 本期重点 * 00:47 嘉宾介绍 * 02:01 嘉宾的“特种兵”行程单:从 PyTorch Conf 到 AMD Dev Day * 05:43 斯坦福教授的新发现:Transformer 后半部分的计算量,其实都被“浪费”了? * 07:20 混合专家模型 (MoE) 的进化:如何用一半的计算量超越 Benchmark * 12:40 硅谷热词 RLVR:当数学定理成为“裁判”,RLHF 还有必要吗? * 15:57 像人类一样思考:解决长程推理难题的“分层推理”策略 * 19:40 过度 SFT 会导致“模式坍缩”?聊聊 Post-training 时代的 Trade-off * 22:06 创业公司福音:只用 LoRA 也能逼近 97% 的全量 RL 效果 * 25:00 显存不够怎么办?Red Hat 提出的“睡眠模式”与 GPU 热交换黑科技 * 28:53 字节跳动 VERL 揭秘:如何搞定万卡集群上的 RL 混合编排? * 34:06 Google 的 Agentic Browser:不只是看网页,而是直接运行代码 * 37:17 当 AI 遇见 NBA:从预测比赛到生物制药,Agent 的落地场景猜想 以上就是本期的全部内容了,欢迎您的收听,我们下期再见~ PS:AI Odyssey 听友群正式开通了,添加 vx:aiodysseyai 带你一起看 AI。

43分钟
1k+
3个月前
评价

空空如也

加入我们的 Discord

与播客爱好者一起交流

立即加入

扫描微信二维码

添加微信好友,获取更多播客资讯

微信二维码

播放列表

自动播放下一个

播放列表还是空的

去找些喜欢的节目添加进来吧