关注《田丰说》,每天3分钟,掌握全球AI大事件!本视频由商汤“如影”数字人APP生成。 田老师认为,在每一个科技时代大幕拉开时,新一代基础设施核心厂商将会变身“印钞机”,如生成智能时代的英伟达,当GPU产品的利润极高时,将吸引来资本疯狂下注,推动更多创新型科研竞争者加入游戏,最终在一个中长周期内带来更为平价普惠的AI算力产品选择,当然短期内英伟达的科研储备“护城河”依然有效。 全球AI要闻,Groq公司迎来3亿美元投资,推闪电大语言模型引擎。 AI芯片公司Groq将在未来2周完成由贝莱德领投的3亿美元融资,估值达22亿美元。 Groq创始人是谷歌专用芯片NPU发明者之一Jonathan Ross。本周,Groq推出了大语言模型引擎,让开发者们直接进行语言文本类快速查询和任务执行。使用Meta LLama3-8b-8192大语言模型,默认支持其他模型,每秒可处理1256.54个Tokens,超越英伟达GPU芯片。Groq速度如此之快,是因为专门针对大语言模型底层架构而设计。4月份,Ross表示不再试图直接向客户销售硬件,转向提供AI云计算服务。因为客户自购和设置Groq的芯片成本太高、风险太大。此外,Groq还面临着来自其他AI芯片初创公司的激烈竞争,例如Etched和Taalas等。 每天3分钟,掌握全球AI大事件!《田丰说》全网发布,敬请关注!
关注《田丰说》,每天3分钟,掌握全球AI大事件!本视频由商汤“如影”数字人APP生成。 田老师认为,2024年是端侧AI助手元年,轻量级小模型更懂你,借助云侧大模型、调用各类APP,端侧小模型将会推动AI手机、AI PC的换机潮,硅谷出现了“苹果+OpenAI”、“三星+谷歌”的端智协同,国内早在4月底就有商汤18亿参数小模型+国产手机和小米SU-7智能车舱的成功案例,你的下一部手机将会不同凡响。 全球AI要闻,三星向苹果开火,手机一键召唤谷歌Gemini助手。 7月10日,三星公布了做端侧AI的重要战略思考,跟苹果的AppleIntelligence的思路相似,比如端侧个性化AI、情境化、个人知识图谱。在三星手机上,用户只需要说“Hi,Google”就能直接召唤出Gemini助手服务。 三星手机上将AI助手嵌入各类App中,比如帮你重写邮件,一键把你朋友的照片变成动漫风格图片。 在多模态应用上,用户直接给 Gemini发一个视频链接,然后对视频内容进行提问。谷歌高管在现场宣布计划将Gemini整合到安卓生态的其他旗舰设备上。 三星、谷歌合作落地了AI“画圈即搜”,打开相机AI立即能识别取景框中的信息,比如识别屏幕上的数学公式,寻找解题方法。 此外,现场还发布了从折叠屏手机、智能戒指、手表、耳机等智能新品,AI一词被提及了上百次。 每天3分钟,掌握全球AI大事件!《田丰说》全网发布,敬请关注!
关注《田丰说》,每天3分钟,掌握全球AI大事件!本视频由商汤“如影”数字人APP生成。 田老师认为,当前的基础大模型正在依赖尺度定律更庞大的算力、数据、参数快速提升能力水平,23年到25年的大模型能力会从本科生提升到博士生智力水平,AI原生公司需要在3至6个月升级的基础大模型上,找到降低成本的应用实践,从而让AI应用能在产业场景中跟上基础大模型的市场预期,微软All in AI就是通过千亿美元级别大笔投资更庞大的AI超级计算中心。 全球AI要闻,微软CTO分享搞大模型最容易犯的错。 7月10日,微软公司CTOKevin Scott与红杉资本合伙人Pat Grady、Bill Coughran对话分享:“我认为在Scaling(尺度定律)这件事上,微软稍微有点落后,2017年后我们没有很快把所有鸡蛋都放进正确的篮子里,虽然在AI上花了很多钱,也只是不想伤害‘内部聪明人’的感情,但这些钱被分散在一大堆不同的事情上,甚至不知道诊断结果是什么。我们没有笃定规模才是最重要的 。我重组了微软内部,更加专注AI。在2019年战略投资和OpenAI合作,一起探索构建AI平台的基础系统是什么。” 亮点1,目前整个领域最有趣的是,前沿模型的能力确实呈指数级增长,而且还没有达到规模边际收益递减的程度。2019年,微软对尺度定律有了清晰的认识,当时有两三个选择,在CEO纳德拉和CTO Kevin看来,选OpenAI是让我们自力更生并进入正轨的最快方法。 亮点2,Scaling的影响是每隔几年一次,因为建造超级计算机并大规模训练需要时间,下一代大模型即将问世。6月初微软也提到已见到了PhD-level博士智能水平的模型。微软AI板块CEO、前Inflection创始人Mustafa Suleyman预测,2年内会见到完成Agent能力的博士智力模型,而不是热议的GPT-5。 亮点3,微软内部反思,产品研发会犯的错误就是,认为解决问题的唯一方法就是我必须去利用前沿模型,并用一大堆东西来补充。要让自己有足够的灵活性,以便前沿模型出现,迅速适应它。 亮点4,一种扼杀是,团队看到前沿模型后,说绝对不可能在此基础上部署产品,因为太贵了,然后开始要人和GPU,他们要建立一个特定的模型,与前沿模型边界性能相似,成本便宜些。但前沿模型一迭代,新的点就把当下产品碾压了。 每天3分钟,掌握全球AI大事件!《田丰说》全网发布,敬请关注!
关注《田丰说》,每天3分钟,掌握全球AI大事件!本视频由商汤“如影”数字人APP生成。 田老师认为,智能体必须拥有低成本、低能耗、高速检索的长短期记忆,才能自主完成复杂任务、自我迭代优化。 全球AI要闻,中国科学院鄂维南院士分享,大模型还有第3种记忆。 近日,鄂维南院士领衔,来自上海算法创新研究院、北京大学等机构的研究者受人类大脑记忆层次结构的启发,他们通过为大语言模型LLM配备“显式记忆”,一种比模型参数和RAG更便宜的记忆格式来降低成本。从概念上讲,由于其大部分知识都外化为显式记忆,因而大语言模型能享受更少的参数大小、训练成本、推理成本。 研究者从零开始训练了一个2.4B即24亿参数的大语言模型,它比更大的语言模型和RAG模型获得了更优的性能,并实现了比RAG更高的解码速度。这个模型被命名为Memory 3“记忆体3”,因为在大语言模型中,显式记忆是继模型参数的隐式记忆、上下文键值的工作记忆之后的第三种记忆形式。该技术减轻了幻觉,并能够快速适应专业任务。 每天3分钟,掌握全球AI大事件!《田丰说》全网发布,敬请关注!
关注《田丰说》,每天3分钟,掌握全球AI大事件!本视频由商汤“如影”数字人APP生成。 田老师认为,AI1.0已经成熟,智能新基建的最大的亮点是AI2.0“生成式AI”,众多朋友们每天使用AI写作、AI绘画、AI编程、辅助驾驶等应用,都在驱动GenAI基础算力和基础数据服务的高速增长,国内的AI算力建设半年翻1至2倍已成为新常态。 全球AI要闻,智算服务市场增86%,商汤进中国AI IaaS前三。 近日IDC在最新发布的《中国智算服务市场(2023 下半年)跟踪》报告中分析,2023下半年,以GPU、FPGA等AI专用算力为主的智算集成和AI IaaS服务的中国智算服务市场规模达114.1亿元,同比增长 85.8%。其中有一个重大发现,中国AI基础设施服务市场增量的59%,来自于飞速发展的GenAI IaaS,即生成式AI基础设施服务,而非渲染、仿真、视联网等传统AI算力。GenAI训练、推理带来AI高端算力“缺口”持续扩大,各地政府正在大力推进智算中心建设,政府参与建设并已投产上线的智算中心数量接近百个,可用算力已接近万PFlops。AI算力服务商正在疯抢算力以及并购相关的科技企业,以谋求时代新一轮红利。 亮点1,GenAI IaaS带来了重塑市场格局的大机遇,字节火山引擎、阿里云、商汤科技名列前三,商汤早在2019年开始布局超大规模智算中心,凭借全栈自研的“大模型+大装置”国产化技术能力,在飞速增长的GenAIIaaS市场赛道中优势明显,成为AI基建新势力的领头羊。 亮点2,传统智算集成服务市场呈现出“一超多强”的特征,华为依托领先的芯片能力及全栈服务能力,市场份额领先,前五名还有新华三、百度、寒武纪和中国电子云。 每天3分钟,掌握全球AI大事件!《田丰说》全网发布,敬请关注!
关注《田丰说》,每天3分钟,掌握全球AI大事件!本视频由商汤“如影”数字人APP生成。 田老师认为,AI创业公司23年缺算力,24年缺数据,投资公司发挥“钞能力”为创企解困。 全球AI要闻,A16z公司囤2万块GPU,出租给被投AI创企。 美国知名风投A16z正在布局数千个AI芯片,包括H100GPU,预计花费数亿美元,目的是将其出租给投资组合公司。 据悉,A16z将集群扩展到包含20000多个GPU,该算力出租计划被称为“氧气”。2024年1月,A16z牵头对Luma进行了4300万美元的B轮投资,估值为2.5 亿美元,Luma AI成为首批使用该GPU训练模型的创业团队之一。Luma公司CEO AmitJain说,虽然其他风险投资提供的估值更高,但A16z承诺让Luma获得计算资源,促成了这笔投资交易。A16z在4月刚筹集完72亿美元的新基金,包括一支专用支持AI基础设施的基金。此外,沙特阿拉伯主权财富基金考虑与A16z共建合作投资AI的基金,规模有望堪比450亿美元的软银愿景基金。 每天3分钟,掌握全球AI大事件!《田丰说》全网发布,敬请关注!
关注《田丰说》,每天3分钟,掌握全球AI大事件!本视频由商汤“如影”数字人APP生成。 田老师认为,如刚出生的人类婴儿一样,端到端的多模态大模型将成为物理AI的下一步。 全球AI要闻,OpenAI公司Sora团队为视频领域设计一套尺度定律。 日前,OpenAI公司的Sora项目团队Aditya Ramesh、Tim Brooks和Bill Peebles,与硅谷知名投资人Elad Gil和知名播客Sarah Guo进行对谈,Sora团队强调,在AI领域总是面临着快速行动的压力。最直接的方法通常是采用当前有效的技术。但有时候需要退一步,思考三年后的长期解决方案。研究团队每天都在解决的问题是,如果使用相同的训练计算量,能否在不增加计算需求的前提下得到更好的效果?Sora如何学习视频数据,从头生成更复杂的长期物理互动、更精确的内容,最好方法就是预测数据,以可扩展的方式学习智能。 亮点1,AI当前最主要的问题是控制性。Sora团队一直在考虑未来如何扩展模型的功能,使其能接受文本之外的其他类型的输入。 亮点2,未来Sora或其他模型的内容将被认可成为专业制作工具,人们也会找到全新的方式来使用这些模型,那可能出现全新的互动内容方式,模型将赋予人们一种能力,理解个人审美观。 亮点3,OpenAI过去投入了很多物理世界的训练数据,比如语言、手臂和关节如何在空间中移动的细节,AI通过对原始视频的学习,成为未来实现AI物理实体化的关键。 亮点4,OpenAI在视频中首次应用端到端深度学习。Sora的新架构Diffusion Transformer使我们能够扩展这些模型的规模。 每天3分钟,掌握全球AI大事件!《田丰说》全网发布,敬请关注!
关注《田丰说》,每天3分钟,掌握全球AI大事件!本视频由商汤“如影”数字人APP生成。 田老师认为,传统应用开发、部署、分享、修改有较高的技术复杂度,而大模型正在让AI时代的应用开发与配置越来越简单,变成即插即用、免配置的大模型开发环境。 全球AI要闻,美国Claude大模型高频迭代,Anthropic公司抓简化应用部署。[图形用户界面, 应用程序 描述已自动生成] 7月10日,Claude3.5上新的工坊模式Artifacts再次升级,不用自建服务器,不用部署后台程序,点一下就能自动获得链接,写完的编程网页应用支持一键分享,用户一键导入大模型对话,随时改出新版本应用,这极大简化了AI应用的部署过程。Anthropic开发者关系负责人Alex Albert说,过去几周投入大量工作,对开发者工作台的提示词使用进行了极大优化。在Anthropic Console界面中能够生成、测试和评估用户的提示词,按照5分制为响应质量设置了用户评分系统,用户根据模型答案来打分,鞭策Claude进行改进、生成最佳响应。 亮点1,大模型生成测试数据。Claude能够根据提示词生成测试用例,用户按需修改后一键运行用例,还能查看并调整Claude对每个变量生成要求的理解,以实现对 Claude 生成测试用例更细粒度的控制。 亮点2,批量导入、生成测试用例。Claude的新版工作台,不仅支持从CSV表格中一键导入,还能用大模型自动批量生成测试用例。[图形用户界面, 文本 描述已自动生成] 亮点3,每个用户都能用AI生成代码、发布自己的内容,类似开源社区,分享Claude的Artifacts后,别人也能修改、获得新反馈。例如游戏应用,写完就能发布,分享出的应用人人都可玩,无需会员,甚至不需要注册Claude账号。 每天3分钟,掌握全球AI大事件!《田丰说》全网发布,敬请关注!
与播客爱好者一起交流
添加微信好友,获取更多播客资讯
播放列表还是空的
去找些喜欢的节目添加进来吧