节目

你喜欢的节目都在这里

邯郸访古:北朝霸府,兰陵王入阵起舞 E.101

于无声处InSilence

最近去了一趟邯郸。邯郸作为一个古都,有很多博物馆和遗址公园,是访古爱好者的天堂。邯郸市博物馆的前言写得非常好,概括了这个地区的历史文化风貌和地理特点。摘录部分: “邯郸西依太行,东跨平原,黄河故道、漳、滏、洺、卫河纵横其间,是人类文明的重要发祥地之一。...商族文化在此起源、发展,战国时代为赵国都城,汉代是著名商业都会。汉末邺城崛起,魏晋南北朝时相继为曹魏、后赵、冉魏、前燕东魏、北齐国都,兴盛近四百年。隋唐以降,大名藉运河而兴,洺、磁扼形胜滋衍,金戈铁马纷扰历史云烟。宋金元明清,广平、大名路府并立于此,耕读传家,世风敦然。...” 🕕时间线: 00:28 邯郸旅行饮食信息 08:01 邯郸地理志 11:38 邯郸市博物馆 25:11 北朝邺城风云 36:38 超级大男主兰陵王 42:27 响堂山石窟 51:07 北朝考古博物馆和北朝墓葬群 11:38 邯郸市博物馆 25:11 北朝邺城风云 36:38 超级大男主兰陵王 42:27 响堂山石窟 51:07 北朝考古博物馆和北朝墓葬群 📖相关内容: 北响堂山大佛窟 茹茹公主金冠饰 高欢义平陵 兰陵王陵园里一本《竹笛入门手册》 * 《高王霸业》系列播客 * 《长安与河北之间》仇鹿鸣 * 博物馆?上河南!二里头、曹操高陵、殷墟E.10 🙋听友群:heishi121 🫱点击加入降噪舱NoiseOff年度阅读计划

65分钟
1k+
2周前

85:婚礼前对他一见钟情,同居后竟然在用同性交友!

爽啊

嘉宾苏苏在准备和“绝世好男友”结婚前,因为一顿日料对另一个男人一见钟情,心跳直接漏半拍!未婚夫甚至提出“给你们三个月先谈恋爱试试”的神仙建议。 然而,这个让她抛弃一切选择的“命中注定”,却在同居三年后被她发现偷偷在上同性交友软件?!从一见钟情到双向情感障碍,这段孽缘般的正缘到底教会了她什么? 相比之下,主播劳拉在毫无准备之下遇到的命中注定,不仅在性上极为匹配,感慨高质量关系原来有爱就会,更是让她对于人性的虚伪深深的上了一课!果然没有一个苦是白吃的! 本期我们就要和大家狠狠聊聊“命中注定的爱,”欢迎你在评论区或者加入听友群(+lauralovetalk),留下你的想法,和广大听友一起进化! 【主播简介】 公众号:powerfullaura 可接性能量/性心理/性健康/亲密关系咨询/身体抚触等付费个案,如有需要请添加微信(lauralovetalk) 定期开展线下两性主题沙龙,成年即可付费参加 【嘉宾简介】 Hey,我是淮安,一名从业三年,咨询时长1300+小时的塔罗疗愈师/占星师。我的专业领域是「人生关系收纳」:生命中无论金钱/爱都是一种流动能量,也都是我们赖以生存的关系。通过塔罗/占星/教练等多元工具的融合,我陪客户建立边界、梳理让我们困扰、内耗、无法活出真我的卡点。联系我请戳:sheislilith 【播客简介】 刺激是一种爽,痛苦更是;既然人生注定是修行,倒不如来痛痛快快的爽起来! 这是一档探索更多爱、性、关系的可能性的中文音频播客,我会不定时的邀请不同的朋友一起来分享那些真实、好奇、多元的爱性关系漫谈。 如果你也想有话想聊来做嘉宾,请在后台留言。欢迎点赞、评论、转发一键三联。目前播客上线的平台有:spotify(推荐,目前是全网上架最全的)、网易云音乐、小宇宙、podcast。

62分钟
80
2周前

77|AI时代爆款逻辑彻底变了!对话三位爆款刷屏产品的负责人:死了么App创始人、SBTI发起人、灵光App产品经理

会友镖局

我们正在进入一个微妙的阶段:代码在消失,Coding的门槛被压缩,创造的权利从少数人手中流向了几乎所有人。当人人都可以Coding、人人都可以表达,爆款还存在吗?如果存在,它是如何诞生的?是算法驱动的偶然,还是产品设计的必然? 一个是产品经理,一个是在校大四金融学女生,都坦诚自己一行代码都不会写,但这丝毫没有妨碍他们做出爆款。本期会友镖局科技会客厅,我们邀请到了三位AI时代爆款产品的创始人和产品经理——「死了么」创始人吕功琛、「灵光」产品经理漠念、SBTI项目作者@Q肉儿串儿 ,在AI重塑创造逻辑的时代,技术已经不再是壁垒, 爆款到底是一种能力还是一种结果?它是设计出来的、长出来的,还是说出来的?当每个人都拥有创造能力之后,真正稀缺的到底是什么? 本期节目在2050大会现场录制,欢迎收听。 👩 本期人物 主播:友红 嘉宾:吕功琛 月境未来创始人 “死了么”App创始人 @Q肉儿串儿 SBTI项目作者 B站UP主 漠念 灵光App产品经理 ⏱️ 本期时间轴 02:08 AI时代,创造的权利正在转移 代码在消失,Coding的门槛被压缩。我们正在进入全民Coding、全民表达的时代。AI把表达推到了前所未有的效率和规模。当人人都可以创造,爆款还存在吗? 功琛在社区热评中发现独居安全需求,三人远程协作,一个月业余时间、1500元上线「死了么」,登顶Apple Store付费榜第一,扩散至全球;串儿从「REST休息者」表情包获得灵感,为劝朋友戒酒加入「酒鬼」彩蛋,4-5天独立完成SBTI,中午发布晚上冲上微博热搜;漠念介绍的「灵光」全模态AGI助手,对话、闪应用、开眼三大能力,上线第一周下载量200万,增速全球第一。三人共性:都不会写代码。 14:47 爆款产品的秘诀——情绪共鸣 最小化产品与市场测试、站在巨人肩膀上降低教育成本、站在模型能力边界与用户需求的交叉点——三位嘉宾分享各自的可复制路径。 “情绪的共鸣”与“反向反差”,是“死了吗”和SBTI测试成为爆款的共性。死亡、摆烂等主题,切中当代焦虑情绪。从产品视角,爆款需兼具“情绪价值”与“实用价值”。爆款不取决于有用或没用,而在于是否替用户说出“想说但没说的话”,情绪共鸣是第一波传播的关键驱动力。 29:25 AI带来结构性变化,更多“非典型开发者”的产品得以被发现和传播 技术门槛被极限拉低,“超级个体”成为趋势。一方面,AI让微小需求能被低成本实现;另一方面,年轻人的聚集地从GitHub等迁移到小红书等社交平台,创作者与用户的互动更紧密,催生更多灵感的碰撞。 31:24爆款有章可循——快速试错、借势传播和技术卡位 串儿:“站在巨人肩膀上”和“学会讲故事”,借力已有认知降低教育成本,用故事包装而非直接推销产品。 功琛:“最小化产品”与“最小化市场测试”,鼓励在小红书等平台发帖测自然互动数据,用文章就能测出爆款。 漠念分享灵光秘诀:“始终在大模型能力边界和用户未被满足的需求之间找交叉点。” 39:03 AI降低了执行门槛,爆款是否在消解科学性? 产品研发门槛虽降,但洞察需求、定义问题的核心能力依然稀缺。现场一位学生指出,追问能力是关键。漠念和串儿强调提问本身就是思考过程,最高境界是在提问中不断发现新问题。 50:11超级个体时代,真正稀缺的是什么? 灵光平台已有3000万个小应用,独立开发者年入百万成常态。但平权不等于平均——稀缺的是洞察、定义问题的能力、持续输出的方法论。 57:31爆款之后:焦虑还是信心? 虽然上线前焦虑付费与留存,但“死了么”数据远超预期(次日留存40%以上)。漠念焦虑的是智能边界被不断踏破,必须持续寻找新交叉点。串儿的初心是为“玩”与“表达”,SBTI是作品而非产品。 01:15:55 十年后的爆款长什么样?行动是一切可能性的起点 功能千人千面、AI让人少工作多生活、AI自己打造爆款——三位嘉宾的不同想象。但最重要的决定不是空想,而是“当有想法时,真的去做了”。 🎯核心观点 1.爆款靠情绪共鸣,不靠技术复杂。 替用户说出心里话,就是爆点。 2.门槛被踏平了。 不会代码也能做产品,稀缺的是洞察和表达。 3.先做,再迭代。 用最小成本去测,行动比想清楚更重要。 4.人的护城河是共情与判断。 AI替代技能,但替代不了对需求的理解。 5.善用AI,别等被替代。 超级个体时代,一人即团队。 内容策划:常常 运营:狐狸 更多节目信息,欢迎关注小红书:会友播客 添加小助手微信:huiyouhz,可以加入听友群喔

82分钟
99+
2周前

第379集 田丰对话澎湃新闻:中美AI差距,DeepSeek开源商业化

田丰说

主持人:如果放在全球一线阵营里横向对比,V4目前到底处于什么位置? 田丰:DeepSeek V4是全球开源模型的明确第一,与顶级闭源模型在编程和数学领域达到同一量级,但在世界知识和通用智能体任务上仍有3-6个月的代差。 一、编程和形式数学是V4对闭源模型的真实突破口 V4-Pro-Max的Codeforces评分为3206,超过GPT-5.4(3168)和Gemini 3.1-Pro(3052),这是开源模型首次在竞技编程赛事上匹配闭源前沿模型的成绩。LiveCodeBench 93.5%,领先Claude Opus 4.6(88.8%)和Gemini 3.1 Pro(91.7%)。形式数学方面,Putnam-2025上达到120/120的满分,与Axiom并列,超过Aristotle(100/120)和Seed-1.5-Prover(110/120)。这两个领域的共同特征是:结果有明确的客观验证标准(测试用例通过/Lean证明器接受),造假空间极小。在可客观验证的智力任务上,V4已进入全球第一梯队。 二、知识密度差距揭示了训练数据质量而非架构的瓶颈 在SimpleQA-Verified(广泛世界知识)上,V4-Pro-Max得分57.9%,落后Gemini 3.1 Pro(75.6%)约18个百分点。在GPQA Diamond(研究生级科学推理)上,V4得分90.1%,Gemini 3.1 Pro为94.3%,差距约4个百分点。这两个基准测试的特点是:模型必须具备大量经过深度消化的事实性知识,单靠推理能力无法弥补。这个差距不是V4的架构问题,而是训练数据的广度和质量问题。报告中V4-Pro-Base在Simple-QA verified上从V3.2的28.3分跃升至55.2分,说明团队已意识到知识密度不足,并在预训练数据策略上做了针对性改进,但与Google多年积累的知识型数据管道之间的差距仍未弥合。 三、价格维度重构了"位置"本身的含义 V4-Pro的API输出价格为3.48美元/百万Token,GPT-5.4约60美元,Claude Opus 4.7约75美元,差距达到17-21倍。这个数字在战略意义上超越了性能差距本身。Dario Amodei曾指出,AI的竞争终局是"能力溢出后的成本竞争"——当模型性能足够接近,价格决定市场份额。V4将闭源前沿模型85-90%的能力,以1/6至1/20的成本提供,并以开权重形式开放本地部署。对于开发者生态和企业采购而言,这不是"性能略差但便宜"的二流选项,而是足以改变架构选型决策的系统性优势。OpenAI和高通合作研发移动端芯片、字节豆包走合作硬件轻资产路线,本质上都是在应对这一成本压力——V4的存在,使所有厂商的硬件协同和模型端侧化计划都必须重新核算经济账。

17分钟
43
2周前

第380集 田丰对话澎湃新闻:普通人如何抓住DeepSeek红利?

田丰说

主持人:在您看来,接下去的2026年,模型企业最终的战略方向是什么?就普通人的感知来说,模型带给我们的变化会是什么? 田丰:2026年模型企业的战略主轴是"从生成能力转向执行能力"——智能体化是唯一值得全力押注的方向;对普通人,变化不是感知到AI有多强,而是许多"原来要找人做"的事情开始不需要找人了。 一、行业层面——战略竞争焦点从"更好的模型"移向"更可靠的代理" DeepSeek V4论文在后训练章节专门描述了智能体基础设施(DSec沙箱,支持数十万并发实例、Rust语言实现、与3FS分布式文件系统集成)。这不是学术研究的附属品,而是明确的战略基础设施投资信号。Dario Amodei将未来AI定义为"能做任何脑力工作的数字人类";OpenAI的Operator、Anthropic的Claude Code、DeepSeek的DSec沙箱、Kimi K2.6宣称的"4000步连续执行、300并发子智能体",是同一个战略判断在不同实验室的具体实现。 模型企业在2026年的战略选择实质上只有两条路:一是成为"基础模型提供商",专注于维持前沿能力、降低推断成本、扩大API覆盖,将上层应用交给生态合作伙伴构建——DeepSeek目前的路径是这条,Qwen也有类似倾向;二是成为"端到端智能体服务商",同时提供模型能力和执行环境,直接服务企业工作流——Claude Code代表了这条路径。两条路径的竞争护城河不同:前者靠算法效率和生态密度,后者靠工作流集成深度和数据飞轮。 McKinsey数据显示,AI中心型组织已实现运营成本下降20—40%、EBITDA提升12—14个百分点。当这个数据在足够多的企业中被重复验证,"是否采用AI智能体"就不再是战略选项,而变成生存压力。2026年的模型企业战略,本质上是在抢占"企业AI转型基础设施"这个位置。 二、普通人层面——变化来自"最后一公里服务"的成本下降至零 对普通人而言,AI最重要的变化不是在基准上又提升了几个百分点,而是原来需要预约专家、等待排队、支付高价的特定服务,开始变得即时、廉价、随时可得。几个具体方向已经可见: 法律文书、合同审查、税务申报辅助——这些原本属于专业服务市场、人均收费数千元的任务,已经被智能体工具部分覆盖。企业端更早,个人端正在跟进。医疗导诊、用药查询、症状初筛——V4级别的长上下文能力(100万token可容纳整本病历档案)使持续跟踪个人健康状态成为技术上可行的事。代码开发——GitHub Copilot的使用率已超过50%在一些统计中,Kimi Code和Claude Code让没有编程背景的产品经理能够直接构建可运行的原型。 Cline CEO的测算提供了一个具体锚点:如果Uber用DeepSeek替代Claude处理相同工作量,原4个月的预算将延伸至7年——这意味着AI服务在企业端的渗透率将非线性提升。企业节省的成本,会有一部分以更低价格的服务形式传递给个人消费者。 对普通人,感知变化的时间节点是2026—2027年,具体表现是:某些"原来要找中介或专业人士"的任务,开始可以被一个智能体在几分钟内高质量完成。这不是"AI替代人"的恐惧叙事,而是"某些专业服务成本趋近于零"的经济现实。 三、结构性变化——人的工作从"执行"向"判断和验证"迁移 IMD教授Wade的判断具有量化基础:2026年将出现"AI原生部门",其中40—60%的日常活动由AI自主完成,人类主要负责解释、升级和人际关系处理。HR的招聘-入职流程、采购的供应商评估、客服的第一线响应,已经出现系统性自动化案例。PwC的分析则指出,这个变化不是"金字塔形"组织结构的局部调整,而是向"沙漏形"的结构迁移:顶层战略领导+底层AI执行,中间层级大幅压缩。 对普通人的实际感知是:会用AI的人与不会用AI的人之间的生产力差距,将在2026年变得明显可见。这比担心"AI是否会抢走工作"更直接、更值得关注。学会向AI下达清晰意图(intent-based computing),而不是执行指令(instruction-based computing),是2026年最有价值的个人能力迁移。

1分钟
14
2周前

第378集 田丰对话澎湃新闻:用图书馆管理员的故事理解DeepSeek V4核心技术

田丰说

主持人:V4有哪些亮点?比如百万Token的超长上下文,这已经不单是“能塞下一本书”了。这会解锁哪些以前完全做不到的新能力?另外,我也注意到架构上提到的“压缩稀疏注意力”(CSA和HCA)和“流形约束超连接”,能不能用大白话给我们解释下,这些技术创新是怎么把模型性能做得更好的? 田丰:我来给大家讲个图书馆里聪明管理员的故事,来说明DeepSeek V4核心技术CSA(压缩稀疏注意力)与HCA(重度压缩注意力)原理。 想象你是一家超大型图书馆的管理员。这座图书馆很特别:每当一位读者走进来提问,你都必须把馆里所有的书翻一遍,才能给出答案。 图书馆只有1000本书的时候,还勉强应付。但现在图书馆扩张到了100万本书——这相当于DeepSeek V4支持的百万Token上下文。按照老规矩,读者每问一个问题,你就要翻阅100万本书,然后再把所有书两两对比相关性。书的数量翻倍,工作量翻四倍,这在数学上叫"平方级增长"。这已经不是慢,而是根本做不到。 第一个聪明方案:CSA——"先粗读,再精读" 图书馆来了一位新管理员,他说:我们换个方法。 第一步,做摘要。 他把书架上每4本书的核心内容,压缩成一张摘要卡片,放在书架外面。100万本书,就变成了25万张摘要卡。这叫压缩(Compression Rate = 4)。 第二步,快速扫描。 读者来问问题,管理员不去翻书,先快速扫一遍这25万张摘要卡,找出最相关的那几百张。这个"快速扫描的能力",就是论文里说的"闪电索引器"(Lightning Indexer)——它是一个轻量级的判断机器,专门做"这张摘要卡值不值得精读"的决定。 第三步,精读要处。 只把筛出来的那几百张摘要卡对应的书,拿出来仔细读。整个过程:粗读全部,精读少数。 这就是CSA(压缩稀疏注意力)的本质——不是记住一切,而是有选择性地记忆。 第二个聪明方案:HCA(重度压缩注意力)——"极度浓缩的提纲" 还有另一位管理员,他的方法更激进。 他说:我们直接把每128本书压缩成一张卡片。这样100万本书只剩下约7800张卡。卡的数量极少,即使全部看完也很快——但每张卡的信息损失也更多,相当于一本《战争与和平》只剩下三行摘要。 这就是HCA(重度压缩注意力)——牺牲精度,换取极致的内存压缩。它不像CSA那样再去筛选,直接把所有压缩卡都看一遍:虽然粗糙,但速度极快,内存占用极小。 两个方案交替使用,像流水线一样高效 DeepSeek V4在深层网络中,把CSA和HCA交替排列。这像工厂的两条流水线: CSA那条线:精细,保证关键信息不丢失; HCA那条线:粗放,保证整体效率和内存控制。 两者配合的最终效果是:在100万Token的情境下,存储所有历史信息所需的内存(KV缓存),从原来的标准方案压缩到了约2%。 用图书馆打比方:原来需要100个书架来放检索卡,现在只需要2张桌子,而且查询速度和准确率几乎没有明显下降。 这就是为什么DeepSeek V4能把"百万Token上下文"从实验室概念变成日常可用的API功能——核心不是算力更强,而是索引方式更聪明。

17分钟
12
2周前

第377集 田丰对话澎湃新闻:DeepSeek V4延期发布的真相

田丰说

之前大家都认为V4会在春节期间推出,但直到4月底才推出,你觉得这中间的原因可能有哪些? 田丰:是将训练和推理栈从CUDA/NVIDIA迁移到华为昇腾CANN的系统级工程改写,叠加千亿参数MoE训练稳定性攻关,以及梁文锋本人对训练方向的内部调整,三重因素共同造成延期。 分析一:CUDA→CANN的迁移是一场被严重低估的系统级重写 The Information的报道(经路透社转引)明确指出:V4的发布推迟,核心原因是DeepSeek团队与华为、寒武纪密切协作,对底层架构做了大量调整和重写。根据接近DeepSeek工程团队的信源,迁移中最耗时的不是算子重写,而是精度对齐——要让同一模型在NVIDIA和昇腾两套平台上产生完全一致的数学输出,需要反复调试。具体障碍包括:使用910C做1024卡集群训练时,梯度同步频繁超时;旧版CANN缺少关键算子,导致训练稳定性不足。昇腾950PR在一季度末商业化后,DeepSeek才具备了完整的推理部署条件。技术报告本身也印证了这一点:文中明确提到在NVIDIA GPU和华为昇腾NPU两个平台上均验证了Expert Parallelism方案,这不是锦上添花的兼容性说明,而是工程苦战的成果记录。一个自定义的TileLang内核体系、一套异构通信重叠方案,要在两套截然不同的指令集上达到同等数学确定性,工期无法提前预估。 分析二:MoE万亿参数的训练崩溃与梁文锋的内部意志干预 36氪等媒体援引的内部消息具体而可信:2025年中期,DeepSeek遭遇了"相对严重的训练失败"。内部人士指出:"当时DeepSeek面临重新适配芯片的问题,公司内部在训练方向上也存在分歧,梁文锋提出了自己的要求,但在落地层面难以达成妥协。"这两条信息叠加,揭示了一个常被忽视的事实:梁文锋本人不只是战略决策者,也是V4技术方向的深度介入者。技术报告坦承训练中反复出现loss spike,且"简单回滚无法阻止下一次崩溃",最终用"预判路由"和"SwiGLU截断"两种经验性方案才稳住训练——但报告也承认这两种方法"底层原理至今未充分理解"。这种"先跑通、再求解"的困境,意味着调试周期本质上不可预估。 分析三:延期是一次主动的战略赌注,而非被动的工程失误 DeepSeek用户增速67%、算力增速仅8.3%,每日算力成本超千万元人民币,今年已发生三次大规模宕机——这个运营压力说明,V4必须先在昇腾上跑通推理,才能以国产算力支撑其日益增长的服务规模。DeepSeek给华为Ascend独家提供了V4预发布访问权限,明确拒绝了NVIDIA和AMD的同等请求。这不是技术层面的排他合作,而是一个具有不可逆性的产业生态选择:阿里、字节、腾讯随即为昇腾950PR下了数十万片的批量订单,芯片价格在数周内上涨20%。从这个角度看,延期是DeepSeek主动选择的代价——用3个月的工程调试时间,换取中国AI算力供应链从"替代选项"变成"主流选项"的战略杠杆。这与梁文锋"大多数公司习惯追随而非创新"的理念一脉相承:他赶的从来不是发布档期,而是一个更大的产业棋局。

17分钟
27
2周前

大健康养生赛道不缺客户,你只是缺吸引客户的方法丨大健康获客拓客引流方案指南秘籍

小红书从入门到变现

在小红书获客一线实操,所获得的一手优质信息源。 —— 大健康获客拓客引流方案指南秘籍新打法三要素丨大健康行业如何拓客 做大健康养生项目获客,其实真不靠打造个人IP,也不一定非得开直播。 一天引上百个精准线索,完全能做到。 今天分享一个我们测试出来的方式,做C端生意的老板可以留意一下。 我就用这个方式,60 天的时间, 从 0 到 1 ,彻底跑通了陪跑的大健康中医养生 IP, 从前端获客,到s域成交,再到线下加盟开店的全流程,变X 10w+ 。 —— 小红书精准获客引流运营方法论、小红书博主起号运营300问。 —— 再给你分享2个“听友”福利: 1、送你一份我手写的,近1w字的电子书,《小红书半年变💰百万的 13 点经验》价值999 纯实战经验,强烈建议你看一看, 一定能让你,在线上获客这件事上,少走弯路。 2、同时我建立了一个专属“听友群”, 我会日更365天,在群内分享,我在自媒体一线实操的心得经验, 一定会对你有启发的,也可以在群内提问小红书困惑,我会进行解答。 听友群,是免飞的,可以直接找我加入。 ♈:dl958488455 备注:播客 强烈建议你关注我的公众号:大李流量笔记 我也会在这里,持续分享小红书起号运营干货,助你实现小红书低粉丝高变现。 以及《AI小红书从入门到变现》这个专栏(点击下划线查看) 我写了220+篇,小红书实战踩坑经验,拿结果的经验,认真看完,能让你少走3年弯路。 —— 我是大李流量笔记,小红书官方认证的种草营销师,小红书精准获客陪跑,找大李! 聚焦一件事:如何通过AI+小红书,解决线上获客少、获客不精准等问题,实现低粉丝高变现。 7 年资深自媒体人,20w 小红书矩阵粉丝操盘手,某自媒体平台小红书类目Top1。 目前已了几十场线下课,3000+付费客户,遍布全球 4 大洲 12 国 125 个行业。 小红书获客有很多,精准获客找大李!

3分钟
99+
2周前

加入我们的 Discord

与播客爱好者一起交流

立即加入

扫描微信二维码

添加微信好友,获取更多播客资讯

微信二维码

播放列表

自动播放下一个

播放列表还是空的

去找些喜欢的节目添加进来吧