节目

你喜欢的节目都在这里

燕外之意 | 酱园弄真实杀夫案件,她是怎么走到这一步的

燕外之意

燕外之意 · 第 228 期 今天我们要谈的是民国奇案“上海酱园弄杀夫案”,和以此为原型的陈可辛电影《酱园弄·悬案》,我们会重点讲解的,就是1983年出版,台湾女作家李昂的《杀夫》。 对于小说,白先勇是这样评价的:“杀夫”这篇小说非常复杂,写人性的不可捉摸,人兽之间剃刀边缘的情形,写得相当大胆,相当的不留情。写没有开放的农业社会中,中国人的阴暗面,把故事架构在原始性的社会里来研究人兽之间的一线之隔,这是篇突破的作品,打破了中国小说很多禁忌,不留情地把人性最深处挖掘出来。 詹周氏本姓杜,自幼父母双亡,8岁时被亲戚送到上海当铺做丫头,随主家改姓周。17岁由养父母做主许配给当铺伙计詹云影,21岁正式结婚 。这种寄人篱下的经历,使她形成了隐忍的性格。 婚后,詹云影吃喝嫖赌,“既不把赚的钱拿回家,又不许她外出打工,弄得家里吃尽当光,两只衣箱空了,便到处向人借钱,曾向二房东借过不少,甚至连外面的大饼摊都有赊账。” 詹周氏长期遭受家暴及经济压迫,曾因绝望吞药自杀未遂。 本案发生于1945年3月20日清晨6时许。“外号大块头的租客詹云影被其妻詹周氏用切菜刀砍杀,并遭分尸后装入空皮箱中,企图移尸灭迹,因血迹滴到楼下,为居住亭子间的二房东王燮阳夫妇发现,随即报警缉拿。” 此案因涉及家暴、疑似婚外情、碎尸等元素,成为当时上海滩的爆炸性新闻。舆论最初多受“无奸不成杀”的观念影响,怀疑有奸夫协助作案,导致詹周氏一度供出并无直接参与杀人的邻居贺贤惠和丈夫的朋友“小宁波”。 上海地方法院于1945年5月3日初审判处死刑,1946年9月16日高等法院二审维持死刑原判。 女作家苏青撰文《为杀夫者辩》引发社会对女性处境的讨论 。 而后,随着1945年8月抗日战争胜利,汪伪政权倒台,之前的判决被宣布无效,案件由国民政府重新审理。1947年1月1日国民政府颁布《罪犯赦免减刑令》,1948年3月19日改判詹周氏15年有期徒刑,刑满后更名周惠珍,定居上海农场,1959年与严少华再婚,此后在农场的托儿所工作,至1981年退休。 在陈可辛导演的《酱园弄·悬案》上半部中,我们可以看出导演意图不止是要说这一个案子,还试图探讨整个时代的波云诡谲。然而在表现形式,和剧情详略,配角人物故事线的安排上,出现了明显的失衡。反而让观感非常奇怪。 而在李昂的《杀夫》中,李昂基于当时她能够掌握到的背景信息(相当一部分是有误的),结合台湾本土和闽南民俗文化,做了非常有特色的改编。 在小说中,最为可圈可点的角色并非女主陈林市,或是男主陈江水,而是本作中最重要的女性配角:阿罔官。 这个人物身上具备强烈的复杂性,乡土性,压抑的情欲、男权社会对女性的塑造和影响。和林市的互动从一开始的“社会引路人”的角色,走向了男权社会打压林市的代表,整个过程的笔触非常自然、实在。 而林市可以说是一个彻头彻尾笼罩在死亡、饥饿阴影之下的人物,她和母亲是被宗族欺压走到末路的孤儿寡母,母亲的死亡,从小寄人篱下的生活,让林市的社会性极差。婚后面临性暴力、精神和肉体暴力,她由不知所措、遭遇社群的背叛,逐渐走向了疯狂和杀人。然而我们认为,这个“疯狂”的处理方式在今天看来,太过典型和陈旧。 陈江水作为一个绝对的反面角色,李昂在塑造的过程中有意赋予这个人物复杂性,描写了他的童年、和情人相处的细节、对生死和杀欲的思考和恐惧,然而最终缺乏落点。导致人物的复杂性有始无终。这个问题在基于李昂原著,次年(1984年)上映的电影中得到了较好的解决。 同时,我们也不能忘记的是,在这个案件中,最重要的原因就是家庭暴力。这样一桩真实的旧案,背后起作用的一些要素,在时至今日的中国女性的生活中依然存在。无论是身体暴力、精神暴力或是性暴力,依然需要我们全社会的关注,从立法、执法、社区的层面合力解决。 /Staff/ 主播 | @在也门钓鲑鱼 @尉迟燕窝 后期 | 尉迟燕窝 如果您想参与话题征集,请留意两位主播的微博 /联系我们/ 新浪微博:@燕外之意official 以下渠道均可收听我们的节目: 小宇宙 | QQ音乐 | 荔枝FM | 苹果播客 网易云音乐 |喜马拉雅 | 蜻蜓FM

125分钟
72k+
1周前

谷歌编程之夏,一次真正进入开源世界的机会 (Google Summer of Code, GSoC)

代码之外 Beyond Code

很多人第一次知道 Google Summer of Code(GSoC,谷歌编程之夏),都是靠学长学姐、论坛帖子,或者某次偶然刷到的经验分享。它在中文互联网里一直不算高调,但对很多人来说,却是一次真正改变技术路径、职业方向,甚至价值观的经历。 这期节目,我们邀请了三位参加过 GSoC 的嘉宾,一起聊聊他们当年是怎么知道这个项目、怎么申请上、做了什么项目,以及这段经历后来如何影响了他们的学习、工作和对“开源”这件事的理解。 有人因此第一次真正理解大型开源项目是怎么协作起来的;有人在和海外 mentor 的交流中建立了技术自信;也有人直到很多年后回头看,才意识到 GSoC 带来的不只是简历上的一行经历,而是对软件工程、社区协作、技术理想主义,甚至人生方向的深远影响。 我们也聊到了一个很现实的问题: 在 AI 写代码越来越强的今天,开源还有没有意义?GSoC 这样的项目,还值得学生投入时间去做吗? 这是一场关于 开源、成长、协作、技术浪漫,以及 AI 时代程序员位置感 的聊天。 如果你是学生、编程初学者,或者正想认真参与一次开源项目,希望这期节目能给你一点具体的方法,也给你一点久违的勇气。 时间轴 00:00 开场片花:开源为什么是一件很浪漫的事 00:55 本期介绍:什么是 Google Summer of Code? 05:03 三位嘉宾自我介绍:他们当年做了什么 GSoC 项目 11:20 我们是怎么知道 GSoC 的? 20:00 申请经历复盘:最初如何接触社区、寻找项目与方向 30:05 和开源社区打交道是什么体验?mentor 的情绪价值拉满 35:35 GSoC 真正教会我们的,不只是“写代码” 40:12 从 Git 到协作:第一次真正理解软件工程 45:01 申请中的趣事与冲突:proposal、竞争与“名场面” 50:59 小社区、大影响:开源社区像 family 一样的存在 55:20 开源的浪漫:在冰冷互联网里留下会被后人使用的东西 01:00:02 技术社区、Meetup、终身写代码的人 01:05:20 GSoC 对职业路径和价值观的长期影响 01:10:27 现在申请 AI 相关项目到底有多卷? 01:15:14 AI 时代来了,做开源还有意义吗? 01:20:06 从 Copilot 到 Claude Code:程序员工作方式正在怎么变 01:25:01 除了奖金和简历,GSoC 真正带来的意外收获 01:26:41 为什么 GSoC 到今天仍然“不温不火”? 01:28:00 收尾:为什么我们还想继续为 GSoC 做传播 本期主播 * GeekPlux https://geekplux.com 本期嘉宾 * Yizheng https://github.com/huangyz0918 * RRRY https://xhslink.com/m/3zvQGFhqF0r * WiFi https://github.com/wifiblack 代码之外 Beyond Code 是一档由 GeekPlux 和 Randy 共同主持的程序员闲聊播客节目。节目地址:bento.me 我们的节目同时会发布视频版,在 YouTube 和 Bilibili 搜索「代码之外」都能找到我们。 欢迎在 forms.office.com 向我们来信,我们会在下一期节目分享你的来信或解答你的疑惑。 也欢迎在 爱发电 赞助我们。也欢迎赞助商联系我们商业合作。

89分钟
1k+
1周前

No.93 一岁半就开始面试?香港幼儿园教育,到底卷个什么鬼?

名字先不急

【内容简介】 为了给娃找个托班,两个多月里主播siyu参加了近十场幼儿园面试。 听起来像段子,但在香港,这是很多家庭真实经历的教育路径。 一个看似可选的托班,变成了整个教育体系的第一道筛选。 为什么不到两岁就要开始面试?这么小的孩子能面出个啥?香港幼儿园到底在筛选什么? 这一期节目,让我们聊聊这段荒诞又真实的经历。 片尾音乐:《Hello Hello! Can You Clap Your Hands?》- YouTube 封面图片:由主播 Siyu 提供 【本期导航】 02:57 一个不到两岁的小孩儿为什么要面试上幼儿园? 09:48 香港的托班既不管孩子睡觉,也不管孩子吃饭 12:49 香港的托班基本上可以用它的教学语言体系来分类 15:32 对于我这样的港漂来说幼儿园的选择面很窄 23:36 香港半天的托班收费是从港币5k一个月到1.3w一个月不等 28:49 如果你的家庭年收入低于70万港币是可以申请学校补贴的 34:32 第一轮的面试是给孩子做一个视频、第二轮面试是面家长,或者说是一个对家长的服从性测试 41:15 香港幼儿园孩子的面试基本上有三类 47:14 小孩面试真的纯看眼缘 54:38 香港是有幼儿园面试培训班的,朋友,这是一条产业链 01:01:28 香港这种寸土寸金的地方,幼儿园9比1就是符合教育局规定的 01:10:03 我家小孩的面试“战袍”是一件二手拉夫劳伦毛衣 01:17:37 我想要保护我的小孩未来不被这套体系“侵蚀” 01:25:08 在香港走国际路线意味着一旦选择就无法回头 01:32:09 一定要筛选的话,哪一种面试方法是最合理的? 01:39:25 听歌🎵专用链接🔗 01:40:41 先别走!还有一个彩蛋🥚 【本期主播】 Siyu,坐标中国香港,中环金融狗 好心的替身,坐标美国西岸,硅谷搬砖工程师 烜赫,坐标中国大陆,催生办主任 【互动方式】 微信公众号:价值观不正常小组

101分钟
1k+
1周前

No.91 Kaiyi几十场AI面试后的总结:怎么成为懂 AI 的人

付费
Web Worker-前端程序员都爱听

节目简介 本期节目在中关村创业大街线下录制,迎来时隔一年多的重磅嘉宾开翼——刚从加拿大微软归来,带着 GitHub Copilot 团队的一线实战经验。四位技术人深度拆解大模型的工作原理:从 Temperature 参数如何影响创造力,到 Cache 机制为何能让 API 便宜这么多;从 RAG 的完整最佳实践,到为什么大公司做不好大模型;从 AI 时代"2000 行单文件"的新开发范式,到程序员未来 1-5 年的动荡期预判。这不是科普向的入门课,而是一线工程师用真金白银试出来的实战经验分享。 本期要闻 1. Temperature 参数的真相:创造力与稳定性的博弈 开翼从大模型的基本原理讲起:模型本质是"下一个词预测器",每次生成时会输出多个候选词及其概率。Temperature 参数决定了选词策略——设为 0 时模型会 100% 选择概率最高的词,输出稳定但呆板;设得越大,模型越可能选择低概率词,创造力提升但不确定性增加。 "如果你的 temperature 设成 0,它百分之百会选择概率最大的词。所以它表现出来给我们的感觉就它变得呆板,创造力低,但是非常的稳定。" —— Kaiyi 实战经验表明:翻译、数学题等需要精确输出的场景应将 temperature 设到最低;而写小说、创意文案等需要发散思维的场景则应调高。这个参数揭示了 AI 应用的核心权衡:没有万能配置,只有场景适配。 2. Cache 机制:为什么击中缓存能便宜这么多 大模型的生成是迭代过程:每生成一个词,都要把已生成的所有词重新送回模型预测下一个。这就是为什么早期 ChatGPT 是"一个词一个词蹦出来"。Cache 机制缓存了已处理的 token,下次请求时可以复用前面的计算结果,大幅降低算力消耗。 "你会发现我所有大模型 API 都会告诉你,如果你击中了 cache 是多少钱,如果你没有击中缓存是多少钱。" —— Kaiyi "它缓存的就是我们'今天早上吃'这四个词,它就缓存在里边了。你下次再来,你是在后面又加了词,那就可以把之前那些结果拿出来去复用。" —— Kaiyi 这解释了为什么 DeepSeek 等模型的缓存价格能降低"非常多"——不是慈善,而是真实的成本节省。开发者应该主动设计对话流,最大化缓存命中率。 3. Top-k 与 Top-p:另一个影响创造力的旋钮 除了 temperature,Top-k 参数同样影响模型的选词策略。Top-k=2 意味着只从概率最高的前 2 个词中选择,Top-k=10 则从前 10 个词中选。OpenAI 官方文档明确建议:不要同时调整 temperature 和 Top-k,因为它们本质上影响同一件事,同时调整会让效果变得不可预测。 "OpenAI 的官方文档会告诉你,不要同时调整 temperature 和 Top-k,因为这两个本质影响是一个事儿,所以它会让你的调整变得没有那么的正交。" —— Kaiyi "一般是固定好了某一个再去调另一个。" —— Kaiyi 这是典型的工程实践智慧:当两个参数相互耦合时,应该采用控制变量法,而不是盲目调参。 4. "贵但好用"的 Codex 与"快但冒烟"的 Claude 开翼分享了在加拿大微软的实战经验:团队同时使用 Codex、Claude 和 Kimi,发现各有千秋。Codex 响应慢但生成的代码"直接可用";Claude 在 plan mode 下快速输出大量代码,但常因"兢兢业业干得太快"导致不可用。这种取舍让工程师不得不混用工具——有朋友直接充值 200 刀 Codex。 "Codex 的问题是速度特别慢,但实际生成效果确实不错。" —— Kaiyi "Claude 有时候就是兢兢业业干活特别快,给你代码特别多,但是有时候不可用。" —— Kaiyi 这场工具之争揭示了当前 AI 编程的核心矛盾:速度与可靠性的永恒博弈。没有银弹,只有权衡。 5. 哈利波特测试:上下文塞满后的智能崩塌 开翼抛出一个经典测试:将整本《哈利波特与魔法石》塞进模型上下文,再询问细节问题。结果令人意外——尽管模型拥有全部答案,却因上下文过载导致"召回能力急剧下降"。这个实验直指当前技术痛点:token 成本不仅关乎金钱,更影响模型的核心智能表现。 "当上下文塞满了之后,它的召回能力有些可能就看不到,以及它的智能一定会下降。" —— Kaiyi "把整本哈利波特塞进模型里问细节,他肯定有所有答案,但有时候回答不对。" —— Kaiyi 这个残酷测试提醒我们:在追求长上下文能力时,开发者需警惕"塞得越多,忘得越快"的隐性陷阱。真正的智能或许不在于吞吐量,而在于精准提取。 6. RAG 最佳实践:从 Query 重写到 Re-rank 开翼系统讲解了当前 RAG 的标准流程:首先用 embedding 模型将文档转为向量存入数据库;针对代码场景,应该同时 embed 代码本身和 LLM 生成的代码解释,双向量索引提升召回率;用户 query 进来后先做重写,将"这个城市"补全为"北京",并生成 3-5 个同义改写;每个改写检索 3-5 条文档,共得到 15 条候选;最后用 re-rank 模型重新排序,选出最相关的 3-5 条喂给大模型生成回复。 "如果你在 embedding 代码的时候,我们会先用一个小模型去给这个代码解释这个代码是干什么的。我在 embed 代码的时候生成一个向量,我在 embed 解释这段代码的地方生成一个向量,这两个向量同时可以索引这段代码。" —— Kaiyi "Query 重写也可以,因为单词有多义性,一般我们会把它重写成 3 到 5 个同意但是写法不同的句子,然后再把这 3 到 5 个向量去数据库里检索。" —— Kaiyi 这套流程已经是业界共识,但每个环节都有优化空间——关键是理解原理,而不是照搬代码。 7. 为什么大公司做不好大模型 开翼以亲身经历解释:大公司的决策链路太长,一个刚毕业的博士研究员提出天才想法,需要 1000 万美元训练资金时,在大公司的审批体系里"是不可能的"——每一层都要背书,失败了要背锅。而 OpenAI 这种创业公司可以把巨大资金和算力直接投给几个天才,甚至是博士实习生,让十个人试,成一个就沿着这个方向走。 "当我有一个天才的想法,我说我现在要需要 1000 万美元的训练资金,我要去验证我这个想法,在大公司的决策链路里是不可能的。" —— Kaiyi "OpenAI 这种创业公司,他们可以去把巨大的资金、巨大的算力去投入给几个天才的人,甚至是博士的实习生。而且他们的算力和钱实在太多了,他可以让十个天才去试,就有一个事成了,那他们就沿着这个方向整个方向往走。" —— Kaiyi 这就是为什么苹果、亚马逊、微软这些巨头都没有成功做出自己的大模型,基本都是创业公司做成的。组织结构决定创新能力。 8. AI 时代的新开发范式:2000 行单文件与即用即抛 开翼观察到一个有趣现象:一些"很牛的人"现在喜欢写 2000-3000 行的单文件代码,所有工具函数放在一起,打破了传统"超过 100 行就应该拆分"的规范。原因很简单:现在是 AI 在干活,你要服务于 AI。代码复用的成本收益比已经改变——高质量代码的生成成本极低,那就不复用了,随便改,甚至"即用即抛"都可以。 "我发现一个很有意思的风格,就是他们现在喜欢写一个文件,2000-3000 行的代码甚至更长。我们之前有个说法是超过 100 行或 150 行代码就应该被拆了。" —— Kaiyi "现在代码,特别是高质量代码的成本变得极低了,那我就不复用了。我如果要修改这个工具函数,我就随便改。因为我知道你不会影响到任何其他的地方,那甚至即用即抛都可以。" —— Kaiyi 这是范式转换的信号:从"为人类可读性优化"转向"为 AI 协作优化"。复制三次以下的代码不再抽取,因为 AI 能轻松处理重复。 9. 软件工程的复兴:瀑布式开发在 AI 时代的回归 开翼提出一个大胆观点:本科学的软件工程(需求-架构-开发-测试的瀑布式流程)曾被认为"非常繁琐、非常死板",但如果换成 AI 来执行呢?当 AI 强到我们要把自己看作老板时,就需要思考如何让"员工"以某种死板的形式一步步做,产出的文档和结果可以快速 review。 "如果 AI 已经强到我们要把自己看作老板,那么就需要思考如何让我们的员工以某种非常死板的形式去一步一步做。但是这个死板形式产出的文档或者产出的结果,我可以非常快速的 review。" —— Kaiyi "我如果带一个团队,我不会去一行行代码 review。我只是去看你的测试表,你的架构文档我能看懂,你的架构文档我觉得合不合适,有问题我再改。" —— Kaiyi 未来的开发方式可能就是这样:像 CEO 一样只关注目标能否完成,而不在意代码里有多少 bug。验收标准从"代码质量"转向"功能达成"。 10. AI 会带来大失业吗:1-5 年动荡期后的新平衡 讨论到 AI 对就业的影响,开翼给出判断:未来 1-5 年是动荡期,AI 不断侵蚀岗位,开发者不断发明新范式提高效率。但 5 年后,程序员的平均工资可能不会降甚至会升,但岗位数量一定会越来越少。原因是 AI 这波革命"没有创造新的技术岗位,只减少了"——客服、前台等岗位已经在被取代。 "我觉得五年之后,程序员的整体的工作岗位平均工资可能不会降,甚至可能会升。但是工作岗位的量一定会越来越少。" —— Kaiyi "AI 这一波革命很有意思,一波新的技术革命它没有创造新的技术岗位,它只减少了。" —— Kaiyi 现实案例:产品经理用 AI 写 PRD,前端工程师也用 AI 理解 PRD 并生成代码——"中间商"开始多余。有公司已经要求产品经理直接出高保真图,前端的作用变成"把数据填成真的"。岗位二合一正在发生。 金句摘录 "Codex 的问题是速度特别慢,但实际生成效果确实不错。有人认为 Claude 最好,也有人认为 Codex 最佳。" —— Kaiyi "当上下文塞满了之后,它的召回能力有些可能就看不到,以及它的智能一定会下降。" —— Kaiyi "前端转型 AI 的真相:不是学算法,而是学会和 AI '啰嗦'对话。" —— Kaiyi 🤔 思考与启发 本期节目展现了 AI 工具落地的现实图景: 1. 工具选择的务实哲学: 工程师不再迷信单一"最佳模型",而是根据场景混用 Codex(可靠但贵)、Claude(快但需校验)、Kimi(成本低且前端友好),证明技术选型应回归业务本质。 2. 上下文的隐形成本: 哈利波特测试揭示 token 消耗不仅是金钱问题,更会导致模型智能衰减。开发者需建立"上下文预算"意识,在 prompt 设计中主动做减法。 3. 转型路径的认知升级: 前端开发者切入 AI 的关键不是补数学短板,而是掌握"对话式开发"新范式——像操作文件系统般调度 AI 能力,把"啰嗦"转化为生产力。 延伸思考: 当你的 AI 助手开始输出冗长解释,是该优化 prompt 精简对话,还是接受这种"必要的啰嗦"以换取准确性?

141分钟
99+
1周前

加入我们的 Discord

与播客爱好者一起交流

立即加入

扫描微信二维码

添加微信好友,获取更多播客资讯

微信二维码

播放列表

自动播放下一个

播放列表还是空的

去找些喜欢的节目添加进来吧