AI 云服务正成为创业者“新基建”!PPIO 联合创始人兼CEO姚欣在直播中分享了他横跨 PC 互联网、移动互联网到 AI 时代的三段创业经历,并指出:AI 行业正从“基础设施成熟”走向“应用爆发前夜”。他创立的 PPIO 致力于打造“分布式云服务”,整合闲置算力,为开发者提供低成本、高可用的 AI 推理与 Agent 运行平台。 但质疑也随之而来:在模型层“赢家通吃”、应用层快速迭代的背景下,创业者如何构建壁垒?AI 成本何时能降至 toC 爆发临界点?普通职场人又该如何应对 AI 带来的替代危机? 🤔姚欣在对话中深入探讨了: * 为何他判断“AI 应用正跨越鸿沟”,而 Agent 还处于“元年早期”? * 从 toB 到 toC,AI 商业化的路径为何与移动互联网相似? * 在模型能力快速迭代、成本每年下降10倍的背景下,创业者该如何做战略选择? * 为什么他放弃做大模型,选择聚焦“推理+开源+出海”? * 当 AI 能写代码、操控电脑,甚至替代部分工作,人与 AI 的边界在哪里? * 在组织内部推动 AI 落地,究竟是“意愿问题”还是“能力问题”? 📌本场直播中,主持人与嘉宾主要讨论了以下问题: 00:55 PPIO 的创立初衷与分布式云模式的起源 11:09 AI Agent元年:技术成本下降与用户跨越鸿沟的双重驱动 16:54 AI发展现状与未来趋势探讨 22:02 未来AI超级助手的形态与颠覆性创新 25:11 AI应用快速迭代与商业化的趋势分析 35:00 AI变革下的组织意愿与能力提升 39:22 技术管理者转型与AI时代组织变革 47:29 AI创业公司的壁垒与长期信念 1:06:05 AI价值创造与需求落地的重要性 1:18:04 创业者穿越周期的心智进化与创新思维 ✨本期人物: 主持人:36氪特邀主持人、蚂蚁集团NEXTA创新实验室项目负责人 何思翀 嘉宾:PPIO联合创始人兼CEO 姚欣 ✌️后期:漆原 关注36氪视频号,即可找到本场视频直播回放哦~
暂无推荐语
不知不觉,我们来到了2025年的最后一个月,在北京的初雪之中,我们希望和大家一起做一个回顾与展望系列:【站在2025年之外】。 今天的嘉宾是真格基金管理合伙人戴雨森。 在122集节目中,朱啸虎声称,三年之内不会有泡沫,泡沫论调纯属无稽之谈,创业者2026年当全速前进。 雨森今天带来全新的看法。在他看来,2026年的关键词是“The Year of R”——回报与研究会再次变得重要。某种意义上,2026年将是一个现实与回调之年。 02:00 复盘2025年 02:00 从模型侧看进展: o1为代表的Thinking Time Scaling带来模型能力大幅提升 OpenAI、Anthropic、Google三家的旗舰模型追赶很紧,又各有特点,预期和叙事轮动 中国模型公司一年下来dominate开源生态 28:13 从应用侧看进展: 模型能力带来应用大爆发 应用是有护城河的,开始看到复杂应用在context、environment等层面产生壁垒 模型公司不能没有产品,大家都下场做最重要的第一方应用 中国AI应用出海表现不错 52:31 2025年真格出手了多少项目?20个左右 对比中美AI公司估值,中国公司对于全球来说有很高期权价值: Thinking Machines天使轮估值在没有产品的情况下已是中国AI公司估值总和 模型公司:Mistral 14b,Kimi 4b,Mistral自己都不怎么做Pre-train了,benchmark也就是和Kimi对标 应用公司:在美国Manus这样一家几个月做到100m ARR,几十个点gross margin,MoM20%增长的公司应该是3-5bn 01:03:15 预测2026年:The Year of R The Year of R:Return、Research、Remember、多模态Reasoning 01:03:15 Return: 为什么Return很重要? ROI,过去3年交易的是investment,因为大家被潜在的大return吸引,但现在随着I越来越大,大家对R的落地越来越关注,因为有R才能推动未来的I 为什么我们认为2026年大家会加大对return的关注? 模型:模型能力进步是这一波AI革命最本质的驱动力,但模型的能力进步正在放缓;美国头部labs的投入(Capex,人工等)大了很多,但无法阻止中国模型低成本跟进,Scaling Law不能简单理解成为投入大力出奇迹 应用:AI应用的叙事从无所不能威胁人类的AGI收敛到现在的三种主要商业模式,是从梦想回归现实的过程 订阅制是OpenAI现在的核心商业模式:超过5亿DAU后,全球知识工作者低垂的果实已摘得差不多了,面临Gemini等的激烈竞争,针对普通用户再提价会比较难 被寄予厚望的广告 + 电商:首先其中大部分是分Meta、Google、字节的存量蛋糕,对于Chatbot这样新形态的应用,探索广告和电商变现的速度不会很快广告 + 电商:首先大量是存量分蛋糕,然后对于新形态的应用,速度没那么快 AI Coding/图片视频生成等“基于用量付费”的生产力产品:Token用量会持续增长,但Token价格也在持续下降,用户只会为SOTA的智能按用量付费;原来值钱的任务会很快变得不值钱,所以AI替代了很多程序员,并不意味着AI能长期赚到这些程序员的工资 AI+行业的企业服务:这部分首先还在早期市场,规模有限,尝鲜的企业多,长期留存未必好,一个例子是微软Copilot的发展持续低于预期,大公司有数据安全、权限、隐私、工作流再造等一系列阻碍,使用新技术的速度比小公司和个人要慢不少 结论: 需要实现Satya说的GDP加速增长,把蛋糕做大才是真正的AGI,比如说AI创造新的药物,发现新的知识,真正解放人类注意力等 投入:现在美国基础设施建设慢,算力贬值快,人员工资高,巨额投入需要尽快看到回报 2025年底二级市场的预期也和2024年底完全不一样:去年底是市场预期不高,但我们看到ChatGPT增速很快,Coding、Agentic模型提升的确定性带来应用机会;现在是投入很大预期很高,但短期模型端看不到革命性的新能力,新的范式变化还在萌芽期 对创业者的启示? 负毛利烧钱一味追求增长的逻辑正在过去,需要有增长和毛利率并重的高质量增长。尤其是在美国非常宽松的融资环境可能会放缓,中美创投市场的价格鸿沟将会缩短 01:16:13 Research: new paradigm:AI历史上都是阶跃提高,需要有新的paradigm从新带来AI 能力的大增长,Ilya:scaling和research是交替的,现在又到了research的时候 目前看Online Learning、世界模型等都是重要的研究方向 neo labs:Thinking machines, SSI, Reflection, 到近期的Humans&,Periodic,Isara等) 因为做工程和产品和做研究是很不一样的,需要有宽松的环境,自由探索的文化,不设时间和KPI限制,大家希望neo labs能够探索和现在头部模型公司有差异化的新路径 new benchmark:现在的benchmark已经不能很好体现AI能力的区别,也不利于作为模型训练的目标,如何衡量一个在大多数领域超过人类表现的模型?姚顺雨指出的下半场已到,需要新的benchmark 对创业者的启示:要关注前沿研究的进展,研究的突破可能会解锁新的应用机会 01:21:00 Remember(Memory): Memory是AI应用关键的差异化,现在的Memory能力已经对ChatGPT留存产生了很大的提高 现在的Memory基本上还是基于retrieval的,没有做到真正的理解,这部分也是研究的兵家必争之地,如果做好会带来进一步的提高 Proactive Agent:有memory和context才能解锁Proactive Agent的机会,而Proactive Agent非常重要,因为人主动去用AI意图有限,AI主动为人服务才能有10x的场景机会 01:24:06 多模态: Visual Reasoning可能会有大的突破,人本质上是Pixel Machine,通过视觉输入理解世界,可以关注Zerobench这个Visual Reasoning Benchmark的表现提升,现在头部模型基本上还是不到10分 Nano Nanana意味着图片生成进入到Sonnet 3.5这样的可用时代,那么Cursor of Image-gen会是什么? GPT-3.5解锁了ChatGPT,Sonnet 3.5解锁了Cursor,Sonnet 3.7解锁了Manus,Nano Nanana/Veo会解锁什么应用的机会?在ChatGPT里面用Imagegen/Videogen显然不是很舒服的体验 语音是很重要的机会,更好更自然的交互,理解用户的Context,Plaud,Granola,Wispr flow/Typeless,Suno? 01:30:29 AI Bubble 从二级市场来讲,明年有可能出现大的回调,时间点可能是下半年 《Boom: Bubbles and the End of Stagnation》书中提到了两种泡沫:好的泡沫和坏的泡沫 如果预期是回调,明年的投资策略变化是什么? 二级会如何传导到一级? 怎么看朱啸虎说:“至少三年内看不到泡沫”、“他们的论点是无稽之谈”? “我个人现在是全部空仓的” 中美的估值差距预期会缩短 01:47:38 创业端变化和建议 基于Year of R的理论,对创业者的建议? AI时代怎么判断创始人?和互联网时代最大不同是什么? 创业像F1赛车 这两年miss什么项目没? 有哪些方向是因为AI出现带来增量的? Chatbot之外不错的交互是什么? 今年个人聊了150个项目,只投了2个 02:18:31 也谈谈人生 对个人的思考:今年的读书、思考与人生 对VC的思考:年轻的投资人要差异化 对普通人的思考:学会在一个智能充沛的世界里生活 02:29:50 最后的快问快答 最后一个问题:你提出Year of R,你也清空了二级市场股票,那么你会做空吗? 02:36:10 在这集节目的结束,我又放了一段和雨森在录节目之前的一场闲谈,比较随意。我们点评了一下那些时常会被议论起的AI公司。如果你觉得有意思,也可以继续听下去 02:36:30 OpenAI 02:46:38 Google(我并不觉得Genimi能阻止ChatGPT的增长,不觉得Google已经脱离危险) 03:06:36 Anthropic 03:11:05 Manus 03:19:47 Thinking Machines Lab、Safe Superintelligence Inc. 年终对话【站在2025年之外】: 《122. 朱啸虎现实主义故事的第三次连载:人工智能的盛筵与泡泡》 【更多信息】 免责声明:本内容不作为投资建议。
你们期待已久的最硬核干货的OpenAI o1模型技术解读来了!上个月最值得关注的事件,或许就是9月12号OpenAI o1模型的发布了,大家对这个新的模型翘首以待许久,OpenAI CEO Sam Altman 也称之为新范式的开始。经过强化学习(Reinforcement Learning)并结合Chain of thoughts 思维链技术,o1在处理物理、数学、编程等复杂问题时,甚至和该领域的博士生水平不相上下。OnBoard! 的嘉宾,不会让你失望! Hello World, who is OnBoard!? 强化学习如何给大语言模型带来新的逻辑推理能力这?这种能力的来源、实现方式和未来潜力又是怎样的?o1带来的“新范式”会对行业有怎样的影响? 这次的嘉宾都是有实际训练LLM经验的一线研究员。这场三个多小时的解读,相信会给你不一样的视角!其中两位就来自 RL 绝对高地的 Google, 也是AlphaGo, alphafold, alphageometry 等一系列世界领先的RL工作的发源地。他们都分别在RL和MCTS(蒙特卡洛树搜索)领域有长期的研究和实践经验。另一位嘉宾则是在互联网大厂从LLM预训练到RLHF都有一手经验。中美视角的综合,碰撞出很多火花。这个嘉宾阵容对o1的猜想和解读,相信会让你直呼过瘾。 这次的探讨会涉及很多技术细节,嘉宾长期的海外工作学习,难免穿插英文,不接受抱怨。Enjoy! PS 本期录制时间是2024年9月27日 嘉宾介绍 Kimi Kong,Research engineer @Google deepmind, 他在 Stanford 读书期间就接触强化学习,从机器人到现在的大语言模型,对强化学习的理论和使用的沿革有非常系统的理解。 Eric Li (返场嘉宾!),Research scientist @Google Cloud, PhD @Caltech。大家都猜测 o1 将蒙特卡洛树搜索 (MCTS) 应用到了LLM,是提升逻辑推理能力的重要方式之一。Eric 就发表了多篇LLM和MCTS结合的论文,绝对的专家。 苏辉,前微信AI研究员,现国内一线互联网公司大模型负责人。 Cohost: Cage,原字节的数据科学家,现拾像科技研究员,公众号“海外独角兽”撰稿人 OnBoard! 主持:Monica:美元VC投资人,前 AWS 硅谷团队+ AI 创业公司打工人,公众号M小姐研习录 (ID: MissMStudy) 主理人 | 即刻:莫妮卡同学 我们都聊了什么 02:36 嘉宾自我介绍,MCTS 科普,为什么对LLM+RL新范式很重要; Cursor 为何值得关注,Physics in LLM from Allen Zhu, 语言对推理能力的价值 20:25 对o1发布有什么印象深刻的地方,数据的重要性和难点 40:16 如何拆解o1能力提升的来源?如何重新训练一个o1? 56:10 为什么复杂的o1 却解决不好简单的数学或常识问题? 60:16 o1 用于 tool use 的任务,可能有什么挑战? 对agent 产品有什么影响? 66:46 如何看待agent 数据集难收集的问题? 68:38 什么是 Chain of Thoughts (CoT)和MCTS? 对o1的作用跟以前CoT做法有什么不一样?MCTS 在LLM推理中可能有什么作用? 83:07 什么是强化学习(RL)?在LLM中应用RL是怎样的演进过程? 89:35 RL和self play 其他领域,比如机器人,有怎样的应用?跟在LLM的应用有何异同? 93:45 RL, CoT, self-play 之间是怎样的关系? 真的可以无上限提升LLM推理能力吗? 106:56 o1 有可能是单一模型还是 multi-agent system? 119:11 LLM和游戏有什么相互影响?为什么玩游戏的能力对LLM 很值得关注?游戏数据对LLM训练有什么价值? 126:54 Google 很早就开始 RL 相关研究,为什么 OpenAI o1先出来了? 133:16 o1 新范式的出现,对于追赶者来说意味着什么?更容易还是更难? 141:43 要追赶 OpenAI o1, 最容易被低估和高估的是什么? 143:48 对未来的展望:未来1年和3年,预期AI领域会发生什么? 我们推荐的内容 * OpenAI: Scaling Laws for Reward Model Overoptimization * Cursor * Allen Zhu: Physics of Language Models * Language is primarily a tool for communication rather than thought * OpenAI: Improving mathematical reasoning with process supervision * InstructGPT * OpenAI PRM 800k 数据集 * Let's Verify Step by Step * Anthropic: Constitutional AI: Harmlessness from AI Feedback * RLAIF * OpenAI Hyung Won Chung: "Don't teach. Incentivize." * Toolformer * Chain of thoughts * DDPM * DPO * PPO * Sergey Levine: Soft actor-critic: Off-policy maximum entropy deep reinforcement learning with a stochastic actorT Haarn * AlphaGo * AlphaGo-Zero * AlphaZero * MADDPG (Multi-Agent Deep Deterministic Policy Gradient (MADDPG), from OpenAI paper "Multi-Agent Actor-Critic for Mixed Cooperative-Competitive Environments" * AlphaZero-Like Tree-Search can Guide Large Language Model Decoding and Training * Reasoning with Language Model is Planning with World Model * Chain of Thought Empowers Transformers to Solve Inherently Serial Problems 参考文章 * openai.com * openai.com * OpenAI’s Strawberry and inference scaling laws * 海外独角兽:LLM的范式转移:RL带来新的 Scaling Law * 张俊林:Reverse-o1:OpenAI o1原理逆向工程图解 欢迎关注M小姐的微信公众号,了解更多中美软件、AI与创业投资的干货内容! M小姐研习录 (ID: MissMStudy) 欢迎在评论区留下你的思考,与听友们互动。喜欢 OnBoard! 的话,也可以点击打赏,请我们喝一杯咖啡!如果你用 Apple Podcasts 收听,也请给我们一个五星好评,这对我们非常重要。 最后!快来加入Onboard!听友群,结识到高质量的听友们,我们还会组织线下主题聚会,开放实时旁听播客录制,嘉宾互动等新的尝试。添加任意一位小助手微信,onboard666, 或者 Nine_tunes,小助手会拉你进群。期待你来!
离「万药皆可AI」,我们还有多远?从1970 年代 Christian Boehmer Anfinsen 提出安芬森法则,奠定了蛋白质结构预测的计算基础,到 AlphaFold 2.0 惊艳世人,打破生命科学领域的研究限制,短短不过半个世纪。 如今几乎所有的制药巨头都尝试通过成立 AI 实验室、与 AI 制药公司合作、甚至是并购收购的方式,积极布局相关赛道。根据 BiopharmaTrend 的统计,截止2022年年初,全球的AI制药总计融资 24 亿美元,其中美国与中国占八成以上。「Nature」也在今年四月发表文章,总结 AlphaFold 和 AI 制药为生命科学领域带来的影响。 本期节目,Nina 和刘灿邀请辉瑞研发部的国才,共同探讨 AI 正在如何改变制药行业。上个世纪就已经出现的计算机辅助 CADD 与现在大热的 AI 制药有什么区别?AI 如何缩短药物研发的流程?为什么制药行业是反摩尔定律的行业?结构生物学家、制药学家会因为 AI 而失业吗? 风险提示:节目内容仅作学术讨论,嘉宾推荐读物及学术分享仅为嘉宾个人观点。 本期人物 Nina,辉瑞雇主品牌和校园招聘负责人 国才,辉瑞研发部 药物科学肿瘤和免疫负责人 刘灿,「科技早知道」监制 主要话题 [01:09] 为什么 AI 制药要从AlphaFold 谈起?各大制药公司已经在做 lab for tomorrow 又是? [07:42] 各大制药公司已经在做lab for tomorrow?AI 目前主要集中在临床前? [15:32] 蛋白质预测为什么难?新靶点会更容易被发现吗? [24:51] AI 能代替人类设计好的药物分子?新药研发中,数据质量与数量其实大于算法? [35:39] AI 制药为什么不能说是在重新定义制药领域? 延伸阅读 * 国才推荐的 Derek Lowe 在Science 的专栏:IN THE PIPELINE * Nature 对 AlphaFold 以及 AI 制药进展的总结:What's Next for AlphaFold and the AI Protein-Folding Revolution * Deepmind 团队在 Nature 上的发表的关于 AlphaFold 2 的 论文:Highly accurate protein structure prediction with AlphaFold * CADD(Computer Aided Drug Design):中文译为计算机辅助制药,指将计算机技术应用于靶点发现、先导化合物的设计与优化等新药研发流程;与之相对应的是 AI辅助制药(AI Drug Discovery & Design, AIDD)。 * 蛋白质折叠(Protein Folding):指蛋白质获得其功能性结构和构象的过程,蛋白质没有正确折叠时会导致疾病出现。诺奖得主克里斯蒂安·伯默尔·安芬森(Christian Boehmer Anfinsen)在上个世纪 60 - 70 年代提出,蛋白质的一级结构决定它的三级结构,而蛋白质的立体结构与其功能相关,此说法后被称为安芬森法则;基于该法则,人类可以通过梳理氨基酸序列预测出蛋白质结构,是如今预测蛋白质结构的计算基础。 幕后制作 监制:刘灿 后期:Luke,敬文 运营:Yao,Yongxin,Bella,Fiona 设计:Cyrus 关于我们 声动活泼的宗旨是「用声音碰撞世界」,致力于为人们提供源源不断的思考养料。 * 我们还有这些播客:声东击西、声动早咖啡、反潮流俱乐部、泡腾 VC、商业WHY酱、跳进兔子洞 * 欢迎在即刻、微博等社交媒体上与我们互动,搜索 声动活泼 即可找到我们 * 期待你给我们写邮件,邮箱地址是:[email protected] * 如果你喜欢我们的节目,欢迎 打赏支持或把我们的节目推荐给一两位朋友
2024 年的诺贝尔化学奖是颁给了三位在蛋白质结构预测和蛋白质设计领域作出开创性贡献的科学家。这标志着 AI 已经成为生命科学的核心工具 ,正在改变我们理解生命的方式和重塑药物研发的未来。 我们今天的嘉宾是深圳湾实验室的周耀旗教授,他是这场变革的亲历者和推动者之一。他最初在学术界专注于蛋白质结构预测,后来他敏锐地意识到 RNA 领域的潜力与挑战,将研究方向转向 RNA 结构预测。现在他又走上创业之路,带领团队开发 以 RNA 为靶点的小分子药物,探索如何将基础研究真正转化为新的疗法。今天的节目我们聊一聊作为蛋白质结构预测工具的 AlphaFold3,它的突破与局限在哪里?RNA为什么是新一代药物的重要靶点?以及 AI 在新药研发中的作用究竟是什么? 本期人物 周耀旗,深圳湾实验室资深研究员,砺博生物科学创始人 Yaxian,「科技早知道」主播 主要话题 [02:42] 为什么蛋白质结构如此重要?解析蛋白结构是理解生命机器的关键 [05:47] 蛋白质结构预测简史(超硬核):基于模板 --> 碎片拼接 --> 二面角+距离预测 [14:26] 「1+2=3」:AlphaFold 革命性飞跃的背后 [17:40] 结构生物学家会不会被替代?聊聊 AlphaFold 还做不了的事 [23:26] RNA 结构预测为何更难?仅4个碱基,结构不稳定,已知数据稀缺 [29:24] 蛋白质只是「提线木偶」,RNA 才是「操纵者」 [31:56] 从靶向蛋白到靶向 RNA -- HIV蛋白酶抑制剂的成功和 KRAS 蛋白的「光滑锁眼」的难题 [35:49] 靶向 RNA 药物的里程碑:首个靶向 RNA 的小分子药利司扑兰(Risdiplam) [38:50] 在缺乏结构数据的情况下,如何开发靶向 RNA 的药物? [43:06] AI 在新药研发中的真实作用:是加速器,而非革命 [45:39] AI for Science:摆脱数据依赖,回归物理,寻找分子世界的「牛顿定律」 延伸阅读 AlphaFold 由谷歌 DeepMind 开发的人工智能程序,AlphaFold2 在精准预测蛋白质三维结构方面取得革命性突破而闻名。AlphaFold3 将其能力扩展到了 RNA、DNA 等更多分子。 CASP (Critical Assessment of protein Structure Prediction) 国际蛋白质结构预测竞赛,每两年举办一次,是评估和检验全球结构预测方法水平的「奥林匹克」 KRAS 一种重要的信号蛋白,其基因突变是多种癌症(如胰腺癌、肺癌)的关键驱动因素。由于其蛋白质表面光滑,缺乏明显的结合位点,长期以来被认为是「不可成药」的靶点。 SMN 蛋白 (Survival of Motor Neuron protein) 即运动神经元存活蛋白,该蛋白的缺失会导致 脊髓性肌萎缩症 (SMA)。全球首个靶向 RNA 的药物就是通过调控 SMN 的 RNA 来提高其蛋白水平。 PCC (Pre-clinical Candidate) 即临床前候选化合物,指在早期发现阶段后,被选定进入正式的临床前研究(如动物安全性、药代动力学试验)的药物分子 幕后制作 监制:Yaxian 后期:迪卡 运营:George 设计:饭团 商业合作 声动活泼商业化小队,点击链接直达声动商务会客厅(https://sourl.cn/9h28kj ),也可发送邮件至 [email protected] 联系我们。 加入声动活泼 声动活泼目前开放商务合作实习生、社群运营实习生和 BD 经理等职位,详情点击招聘入口详情点击招聘入口 关于声动活泼 「用声音碰撞世界」,声动活泼致力于为人们提供源源不断的思考养料。 我们还有这些播客:声动早咖啡、声东击西、吃喝玩乐了不起、反潮流俱乐部、泡腾 VC、商业WHY酱、跳进兔子洞 、不止金钱 欢迎在即刻、微博等社交媒体上与我们互动,搜索 声动活泼 即可找到我们。 期待你给我们写邮件,邮箱地址是:[email protected] [声小音] 欢迎扫码添加声小音,在节目之外和我们保持联系。 Special Guest: 周耀旗.
播客Show Notes 本期主题 AlphaFold如何用AI破解蛋白质折叠难题?——约翰·詹珀带你看AI for Science的现在与未来 核心嘉宾 约翰·詹珀(John Jumper):AI for Science领域顶尖科学家,谷歌DeepMind核心成员,AlphaFold关键开发者。曾跨界物理学、计算生物学、生物物理学等领域,始终以"用AI加速科学发现"为目标。 内容概览 一、从物理学家到AI科学家:约翰·詹珀的跨界之路 * 职业转折:从物理学博士退学,进入计算生物学公司,发现"用技术解决实际问题(如药物研发)"的价值; * 关键转型:因缺乏计算资源,转向统计学与机器学习(早期称"统计物理学"),后加入DeepMind,结合顶尖资源与团队推动科学突破; * 信念:工具的终极意义是"让科学家实现更多发现"——AlphaFold已被引用3.5万次,助力疫苗、药物开发等领域,正是这一信念的印证。 二、蛋白质折叠:为什么它是"生物学世纪难题"? * 蛋白质的核心作用:人体约2万种蛋白质是"纳米机器",负责细胞几乎所有功能(如运动、催化反应),其功能由三维结构决定; * 折叠的关键:DNA指导蛋白质"线性组装"后,会自发折叠成三维结构——理解这一结构才能预测疾病、开发药物(药物常通过阻断蛋白质功能起效); * 实验测定的痛点:需让蛋白质形成晶体(可能耗时1年以上,失败率极高),再用X射线解析,过程耗时1-2年、花费约10万美元; 数据鸿沟:已知蛋白质结构仅20万(年增1.2万),但蛋白质序列已发现数十亿,增速是结构的3000倍。 三、AlphaFold的诞生:AI如何破解这一难题? * 核心目标:从蛋白质序列(线性指令)直接预测三维结构,填补"序列-结构"数据鸿沟; * 三大核心支撑(数据、计算、研究):数据:基于公开的20万蛋白质结构(来自蛋白质数据库PDB),"人人都能获取"; 计算:最终模型用128个TPU V3核心运行两周(非大规模语言模型级别,属学术可及范围); 研究(最关键):小团队提出全新机器学习方法,将Transformer思想与实验、"中等规模思想"结合,而非单一技术突破(如AlphaFold 2用1%数据就能超越前代SOTA系统); * 验证:通过CASP盲测(预测未发表结构),误差仅为其他团队的1/3,证明真实有效性。 四、AlphaFold的"破圈":从技术突破到改变科学 * 开放性是关键:代码开源+预测数据库(从30万扩展到2亿,覆盖已测序生物蛋白质); 信任建立:数据库让普通生物学家直接对比"预测与未发表结构",通过"证据的社会性"口耳相传; * 实际影响:加速实验:帮科学家节省数月甚至数年时间(如解决"一年无法纯化的蛋白质"预测); 催生新发现:《科学》杂志核孔复合体特刊3/4论文依赖它,助力靶向药物递送(如小鼠大脑细胞精准注射)、受精机制研究等; 涌现新能力:用户意外发现其可预测蛋白质相互作用("蛋白质提示工程")。 五、未来:AI for Science会有多"通用"? * 核心逻辑:从零散数据(如蛋白质结构)训练通用模型,理解规律后填补空白,成为"实验家的放大器"; * 展望:AlphaFold是"基础模型"的开端,未来AI for Science不会局限于狭窄领域,将发展为广泛系统,持续解锁更多科学发现。 关键金句 1. "工具的意义不是替代科学家,而是让他们能做我永远做不到的研究。" 2. "AI的突破很少来自单一'革命性思想',更多是'中等规模思想'的累积。" 3. "科学的进步不仅需要技术,更需要让技术'被信任、被使用'的开放性。" 适合听众 对AI、生物学、科学创新感兴趣者;关注"技术如何改变科研"的研究者、学生;想了解AlphaFold背后故事的科普爱好者。
您确定要删除播单"my favorite"吗?
与播客爱好者一起交流
添加微信好友,获取更多播客资讯
播放列表还是空的
去找些喜欢的节目添加进来吧