Vol.4i 漫谈量子力学和它在生产生活中的降临

代码时光机

本期嘉宾:老王,北航材料学博士。 当我们提到量子力学的时候,最直接的印象恐怕就是它的复杂晦涩,以及概率波为核心的不可知论的迷雾。但是这种诡异的形象却并不妨碍它深刻地参与到我们的生产生活之中,成为我们认知世界的最强大的工具。当然,没有人能说自己懂量子力学,也正因如此,我们不妨漫谈一回这个披着神秘面纱的学科。 一些节目中提到的名词 波函数:量子力学中描述微观粒子状态的数学工具,用复数函数ψ表示。其模的平方代表粒子在空间某处出现的概率密度。波函数遵循薛定谔方程演化,叠加原理是其核心特性。 库珀对:超导体中两个电子通过晶格振动(声子)形成的配对。这对电子自旋相反,在低温下形成宏观量子态,是解释超导现象(如零电阻)的关键。 迈斯纳效应:超导体冷却到临界温度以下时,会完全排斥内部磁场,导致外部磁场的磁感线绕过超导体(如图),如同在内部形成“磁屏障”。这使超导体能悬浮在磁铁上方,是超导体的核心特性之一。 量子隧穿:微观粒子以概率形式穿透经典力学中无法逾越的能量势垒的现象。例如α粒子衰变和扫描隧道显微镜的工作原理均基于此效应。 势垒:能量高于粒子初始状态的区域,阻碍粒子运动。经典力学中粒子无法穿越势垒,但量子力学允许隧穿效应发生。 霍尔效应:电流通过磁场中的导体时,在垂直于电流和磁场的方向产生电势差的现象。量子霍尔效应(如整数量子、分数量子霍尔效应)是凝聚态物理的重要发现,用于高精度电阻标准。 巨磁阻效应:某些多层磁性薄膜材料的电阻在外磁场作用下大幅变化的现象。应用于硬盘读头,显著提升存储密度,是自旋电子学的基础。 SRAM和DRAM: • SRAM(静态随机存储器):通过晶体管存储数据,无需刷新,速度快但成本高,多用于CPU缓存。 • DRAM(动态随机存储器):通过电容存储数据,需周期性刷新,容量大且成本低,用于计算机主内存。 时间轴(by AI) 02:02 波函数的含义与应用 07:10 探索身边的量子力学:解密微观世界的概率波动力学 14:29 重要而富有挑战:量子力学的研究价值与应用前景 21:45 量子力学下的电子行为:挑战与应对之道 29:02 量子力学的不确定性:挑战还是特点?——工程领域的应用价值探讨 36:13 量子计算和存储:利用波函数携带信息的能力。 43:30 深入剖析硬盘的存储原理:从磁性颗粒到量子力学的探索 50:49 非易失性存储器:超越固态硬盘和内存的读写速度与低功耗优势 58:01 揭秘量子计算:量比特、自旋和超级出用的量子传输! 01:05:19 量子力学:未来前沿还是炒作概念? 01:12:35 探索未来科技:量子力学的学习路径和应用前景 01:19:49 理论学界与工程界的碰撞:量子力学在实际应用中的挑战

87分钟
99+
7个月前

Vol.21 大语言模型是维特根斯坦设下的一场语言游戏

代码时光机

本期节目的话题是我脑海中一闪而过的想法:如果人类语言中突然多了LLM这个参与者,那么之前关于语言的思考是否过时呢?我的眼前马上浮现了维特根斯坦的名字。仔细想想,维特根斯坦的思想在LLM面前不仅丝毫不怵,甚至还隐隐指出了一条未来的路——大语言模型是维特根斯坦的一场遥远的胜利。 [1]《哲学研究》路德维希·维特根斯坦,推荐涂纪亮的译本 (北京大学出版社) 时间轴(by AI) 02:05 语言的逻辑图像:维特根斯坦和大模型的奇妙呼应 04:11 维特根斯坦的语言观念:从指称论到逻辑图像论的转变 06:13 从逻辑图像到语言游戏:维特根斯坦对语言的晚期思考 08:16 维特根斯坦的语言游戏观念:从逻辑分析到生活形式的转变 10:17 维特根斯坦的视角:语言的意义是通过具体语境中的使用行为生成出来的 12:17 语言的边界与世界的边界:维特根斯坦的哲学思考 14:21 大语言模型与维特根斯坦的语言游戏理论:相互吻合的概念与应用 16:27 大模型学习中的语言游戏规则与维特根斯坦的观点 18:29 大语言模型:从符号主义到注意力模块的专家系统之路 20:31 大语言模型:从语境中生成规则,突破人类认知的边界 22:37 数学竞赛题训练的大模型:突破语言边界,探索新知识的工具

24分钟
99+
8个月前

Vol.19 当我们谈论大语言模型的时候我们在谈论什么

代码时光机

用超简单的方式解释大语言模型的本质原理。 这期节目可以当作第一期节目的增强补丁,对LLM做了进一步的详细说明,包括如下的基本问题: 1. LLM是用什么形式阅读人类语言的? 2. 知识以何种形式在LLM中流动? 3. Transformer和注意力机制是什么? 4. (单头)注意力机制的计算过程。 为了尽可能减轻术语带来的心理负担,我尽可能地用例子和直观描述来代替学术描述,不免带来叙述上的不严谨,欢迎评论区对此打补丁。、 节目中提到的,Google的两篇最重要的论文是: [1] Mikolov, Tomas. "Efficient estimation of word representations in vector space." arXiv preprint arXiv:1301.3781 3781 (2013). [2] Vaswani, A. "Attention is all you need." Advances in Neural Information Processing Systems (2017). 下面是AI生成的时间轴: 02:02 解密大语言模型:揭示其内部实现机制与写作能力 04:02 大语言模型的编码奥秘:从文本到信息的转换之道 06:04 大语言模型的基石:磁向量编码与人类语言理解 08:12 从文字到向量:理解大语言模型内部的语言处理方式 10:58 GPT三:理解人类语言的磁向量表示和信息处理方式 13:43 GPT-3:了解一千七百万个参数的计算方法和原因 16:25 深度学习中的Transformer模型:理解注意力机制的本质 19:12 深度学习中的 Tranformers:注意力模块的原理和应用 21:56 深度剖析Transformer中的注意力机制:从单头到多头的实现细节 24:40 机器学习中的向量运算:理解点乘、点程和注意力机制 27:24 Transformer模型中的注意力机制:高效的信息提取与并行计算 30:07 Transformer的注意力机制:如何提高信息提取效率?

32分钟
1k+
8个月前

Vol.3i 和清华车辆系科班从第一性原理聊聊新能源车和燃油车

代码时光机

嘉宾是我的同学阿乐,五道口职业技术学校车辆与运载学院本科+直博(在读)。 本期不聊软件,聊硬件 :) 长期以来对汽车知识的无知都令我自卑,今天终于拉来一名循循善诱的清华科班来聊天。由于我对于汽车科班上的知识可谓空白,所以我们从第一性原理出发,以能量转化的视角简单地拆解了一下电动汽车,以及它和燃油车的对比: 1. 把能量储存在车上:燃油车的油箱/电动车的电池组; 2. 把储能转化为机械能:内燃机和电动机; 3. 把机械能传导到轮子:车辆控制系统,电动汽车产业的弯道超车。 沿着这样的思路,我们聊了很多新能源车的常见问题,包括工程原理和业内进展等等。我觉得收获很大,对汽车的认知到达了前所未有的高峰。但如果你赶时间,下面列出了一些特定的话题时间点(by AI): 02:04 新能源车的能量储存与转移过程:电池技术的创新与发展 08:05 固态电池:突破锂离子电池瓶颈,实现新能源汽车的革命性进步 16:15 电动车与燃油车:能量转化的差异与挑战 24:20 电动汽车中的电机工作原理及特点:高速度与火花问题的解决 32:27 内燃机与电动机的扭矩输出差异:燃油车加速性能的限制因素 40:38 电动车驱动形式的灵活性与驾驶体验:与燃油车的差异 48:45 电动车与燃油车的区别:在行驶过程中如何控制输出功率? 56:54 揭秘增程式工作原理:发动机高效区间与车轮动力关联 01:04:59 电动车魅力所在:探索电机与电的关系以及输出功率的奇妙世界 01:13:10 电动车奥秘:能量存储、转换与控制的完整流程 01:21:19 电气趋势:电池集成化与车辆个性化设计的关联性 01:29:22 车辆工程:燃油车与电动车教学改革的挑战与机遇

97分钟
99+
9个月前
EarsOnMe

加入我们的 Discord

与播客爱好者一起交流

立即加入

扫描微信二维码

添加微信好友,获取更多播客资讯

微信二维码

播放列表

自动播放下一个

播放列表还是空的

去找些喜欢的节目添加进来吧