10月28日,在NVIDIA市值即将超过5万亿之际,NVIDIA 首席执行官黄仁勋在华盛顿的GTC大会中发表演讲,概述了加速计算和人工智能的下一阶段发展方向——从国家人工智能基础设施和量子计算到机器人技术和再工业化。 摘要: * “人工智能不是一个工具,人工智能是工作。这是深刻的差异。实际上,人工智能是可以真正使用工具的工人。” * “摩尔定律已经基本终结……我们称之为极限协同设计。英伟达是当今世界上唯一一家真正从一张白纸开始,可以同时考虑新架构、新芯片、新系统和新软件的公司。” * “我这里所说的计算机就是一个工厂。它运行人工智能,其目的是为了生产尽可能有价值的代币……这绝对是一个AI工厂。” * “一方面,GB200(Blackwell)是最昂贵的计算机。另一方面,它的令牌生成能力非常强大,以至于它以最低的成本生成令牌。” * “物理AI需要三台计算机:一台用于训练模型,一台用于在数字孪生中模拟,一台用于操作机器人。这三台计算机都运行CUDA。” 来源:https://www.youtube.com/watch?v=lQHK61IDFH4 中文脚本:https://pan.quark.cn/s/2ad425b3d177
摘要: YouTube频道“Greg Isenberg”视频《我看了 Dan Koe 拆解他的 AI 工作流 OMG》,知名内容创作者 Dan Koe 分享了他的内容高效流程。 Dan Koe 解释了他如何利用 大型语言模型(LLMs)(如 Claude 和 ChatGPT)来系统化内容创作,特别强调了它们在研究和构思阶段的作用,而非直接代写内容。 他的核心策略是以周报为基础,并将其扩展为所有平台的各种形式内容,同时利用 X(Twitter)作为测试平台来验证想法。 此外,他还分享了如何构建复杂的提示词来指导 LLMs 模仿写作风格、分解成功内容以及生成新的想法和标题,旨在帮助听众提升内容生产效率和质量。 观点: * 内容应在所有平台上保持一致(而非定制化):Dan Koe 认为,他的所有内容在不同平台上都是相同的。这种做法与人们普遍认为的需要为每个平台单独定制内容的传统观点相悖。他的内容基础来自他每周撰写的时事通讯以及每天发布的二到三条社交媒体帖子。他宁愿每周产出一个“惊艳”的内容,并将全部注意力投入其中,然后将其发布到所有平台上,而不是为每个平台创建新的内容,从而导致整体质量下降。 * 算法的本质是人类心理学:他相信,算法的基础是人类心理学。因此,如果你能理解人类心理学,并利用人工智能来帮助你深化理解,你的内容将在互动和其他方面获得显著提升。他认为,这比仅仅追随潮流更为重要。 * 从已验证的成功中汲取灵感,但不必消费原始内容:Dan Koe 生成内容想法的一个方法是,去 YouTube 查看目标受众所关注的利基账户,筛选出最受欢迎的视频。这里的秘诀在于:你不需要观看这些视频,也不必窃取任何内容。你需要做的是获取“话题”和“角度”,然后写出自己独特的观点。由于其他人已经在观看这些高播放量的视频,他们很可能会被推荐你的视频。 * 专注于写作和思想密度而非视觉效果:尽管在当今高度视觉化的社交媒体环境中,图片和视频通常被认为是成功的关键,但 Dan Koe 主动限制自己只专注于写作。他认为这种约束反而让他更有创意,并大幅提升了他的写作水平。他相信,他能建立起受众,是因为他专注于思想密度(idea density)和新颖的视角。他努力在内容中融入至少一个他认为能“震撼人心”的见解,以建立与观众的独特联系。 来源: 原视频:www.youtube.com 中文逐字稿:lvbjv6o2rsw.feishu.cn
Elena Verna 目前担任全球增长最快的科技初创公司之一 Lovable 的增长主管。在她的帮助下,这家 AI 原生公司凭借一支精干的团队,在不到七个月的时间内实现了 8000 万美元的年度经常性收入 (ARR)。 此前,她曾在 SurveyMonkey、Miro、Amplitude 和 Dropbox 等全球领先的科技公司担任高管,并为 MongoDB、Superhuman 和 Veed 等公司提供咨询服务。 来源:https://podcasts.apple.com/au/podcast/217-elena-verna-leading-growth-at-lovable-the-worlds/id1522129912?i=1000719797105
听听OpenAI 官方发布会怎么介绍 Sora2 的。 来源:https://openai.com/index/sora-2/
OpenAI、Ahthropic、DeepSeek都发布了新模型,放假前一天卷起来
聊聊DeepSeek昨晚刚刚发布的最新模型DeepSeek-V3.2-Exp的公开论文。 DeepSeek Sparse Attention(DSA)首次实现了细粒度稀疏注意力机制,在几乎不影响模型输出效果的前提下,实现了长文本训练和推理效率的大幅提升。 来源:https://github.com/deepseek-ai/DeepSeek-V3.2-Exp/blob/main/DeepSeek_V3_2.pdf
来自近日对强化学习之父、2024年图灵奖得主Richard Sutton的访谈。 来源:https://www.youtube.com/watch?v=GvibIstOn_E
Google最近发布的“创业公司智能体构建指南”,内容很实用。 * 介绍了 AI 代理的核心概念,包括模型(如 Gemini 2.5 Pro/Flash)、工具、编排和运行时环境。 * 如何通过 Agent Development Kit (ADK) 构建定制代理,或利用 Google Agentspace 进行无代码自动化和代理管理。 * AgentOps 框架:一个系统化的方法论,用于确保生产级 AI 代理的可靠性、安全性和持续评估。 PDF原文:https://services.google.com/fh/files/misc/startup_technical_guide_ai_agents_final.pdf
当 AI 成为真正的编码协作者时会发生什么?OpenAI 联合创始人 Greg Brockman 和 Codex 工程负责人 Thibault Sottiaux, 畅谈 Codex 的演变历程。 从 AI 编写代码的雏形,到如今能够连续数小时进行复杂重构的 GPT-5 Codex 代理。他们探讨了“线束”的构建、代理编码的兴起、代码审查的突破,以及 AI 在未来几年将如何改变软件开发。 来源:https://openai.com/zh-Hans-CN/podcast/#oai-podcast-episode-6
来自OpenAI内部工程师访谈的真实用例和最佳实践。 来源:https://cdn.openai.com/pdf/6a2631dc-783e-479b-b1a4-af0cfbd38630/how-openai-uses-codex.pdf
OpenAI昨天发布了AI编程工具Codex有史以来最大的更新。 来源:https://openai.com/index/introducing-upgrades-to-codex/
由史上最大种子轮融资(20亿美元)、OpenAI前CTO Mira Myrati领衔创立的Thinking machine Labs,前天发布了这篇论文《克服 LLM 推理中的不确定性》。 摘要: * 可重复性是科学进步的基石。然而,从大语言模型中获得可重复的结果极其困难。 * 例如,你可能观察到向ChatGPT多次提出同一个问题会得到不同的结果。这本身并不令人惊讶,因为从语言模型获得结果涉及"采样"过程——将语言模型的输出转换为概率分布并概率性地选择一个token。 来源:https://thinkingmachines.ai/blog/defeating-nondeterminism-in-llm-inference/
与播客爱好者一起交流
添加微信好友,获取更多播客资讯
播放列表还是空的
去找些喜欢的节目添加进来吧