https://babi.com/
slot gacor
bakautoto
关注《田丰说》,每天3分钟,掌握全球AI大事件!本视频由商汤“如影”数字人APP生成。 田老师认为,当人类面对大模型的幻觉等问题时,最有效的方法是发明一种新的AI监督技术来消除幻觉,以模型治理模型,以AI改进AI。人类的可解释性来自于因果性,所以大模型的问题应追溯到数据源头。 全球AI要闻,OpenAI安全主管找到新方法,克服大模型幻觉。 7月13日,OpenAI安全系统团队负责人Lilian Weng在博客最新分享了在理解、检测和克服大语言模型幻觉方面的诸多研究成果,她参与了GPT-4的预训练、强化学习、对齐等工作。模型输出应该以预训练数据集为基础,为了避免这类外源性幻觉,大语言模型应遵循一定训练原则,实事求是,不知时要承认不知。 亮点1,幻觉检测的创新方法,引入FactualityPrompt基准数据集,通过检索增强式评估和基于采样的检测来量化模型幻觉。搜索增强式事实性评估器表现优于人类标注者,同时成本还低20倍,与人类的一致率为72%,而当与人类不一致时,胜过人类的胜率为76%。 亮点2,动作链的新框架涌现。2023年提出的Chain-of-Verification方法,通过规划和执行验证来减少幻觉,为模型的自我校验提供了新思路。实测大约7-10%的问题虽复述正确但未能得到正确答案,而大约12%的问题虽复述错误但却回答正确了。 亮点3,反幻觉方法的路径是,RAG、编辑、归因...通过归因编辑来追溯性地让大语言模型有能力将生成结果归因到外部证据。实验中,通过提示GPT-4创建了一个用于评判模型和生成模型的监督数据集,然后将它蒸馏到一个内部模型中,降低了推理成本。 每天3分钟,掌握全球AI大事件!《田丰说》全网发布,敬请关注!
关注《田丰说》,每天3分钟,掌握全球AI大事件!本视频由商汤“如影”数字人APP生成。 田老师认为,人类只有一个大脑处理变化世界中的复杂任务,机器人也应该只有一个聪明的“大脑”,这个端到端的多模态大模型“大脑”应该具有视觉、语言、行动的协调性能力,像人类一样在所处环境中建立长期记忆,实现“反馈-调节”的环境交互执行能力,也就是我们常说的“知行合一”。 全球AI要闻,谷歌用Gemini模型训练机器人具有长记忆。 Google正在使用Gemini大模型训练机器人,结合长记忆提出了一种分层的视觉-语言-行动的自主导航模型Mobility VLA。 DeepMind论文详细介绍了Gemini 1.5 Pro模型的上下文窗口,如何让机器人RT-2使用简单的指令进行导航和完成任务。这项技术的工作原理是拍摄指定区域的视频,研究人员使用Gemini 1.5 Pro让机器人观看视频来了解环境。然后,机器人能根据实际情况,使用口头或图像输出执行命令。 谷歌DeepMind团队说, Gemini模型驱动的机器人在 9000 多平方英尺的操作区域内,对50多条用户指令的执行成功率高达90%。 每天3分钟,掌握全球AI大事件!《田丰说》全网发布,敬请关注!
关注《田丰说》,每天3分钟,掌握全球AI大事件!本视频由商汤“如影”数字人APP生成。 田老师认为,传统视频节目先制作、后发行播出,互联网上的长短视频也是串行生产工作流程,但人工智能时代,伴随视频生成的内容质量与速度逐渐提升、算力成本持续下降,视频生成与全网播放的时间差变得越来越小,直到按需实时生成视频,绝大部分影视、游戏、互联网的视频由AI生成,又一次新的AI文艺复兴开始了。 全球AI要闻,Runway CEO预测,2年内视频大模型将有3次大迭代。 7月12日,视频生成创业公司Runway的CEO Cristóbal Valenzuela在X社交媒体上预测,在未来24个月内,根据GenAI发展速度,媒体行业、娱乐业将发生五大变化,包括生成音频、视频、图像任何媒体格式的成本都将接近AI推理算力成本,值得关注的是,未来至少将有3到4次视频模型的大飞跃。 随着GenAI技术迭代,实时媒体生成将适用于所有格式,而大多数视觉模型都可以实现像素级、细粒度控制。我们将会发现出现一批新型视频内容制作方,利用传统软件和AIGV新型管道相结合的方式生产制作娱乐节目。 每天3分钟,掌握全球AI大事件!《田丰说》全网发布,敬请关注!
关注《田丰说》,每天3分钟,掌握全球AI大事件!本视频由商汤“如影”数字人APP生成。 田老师认为,当今人工智能最大的矛盾,在于飞速增长的社会应用需求与有限的算力供给之间的尖锐冲突,供需不平衡引发了一系列的AI基础软硬件创新,加速算法、新型算力芯片层出不穷,以弥补逐渐变慢的摩尔定律。 全球AI要闻,Transformer最新加速技术,将H100芯片利用率提升到75%。 FlashAttention是对注意力计算进行重新排序的算法,被广泛用于加速当今一统天下的Transformers大模型架构。时隔一年后,该技术推出了第三代更新,在FP16精度模式下,速度达到740 TFLOPS,这是H100芯片理论最大FLOPS利用率的75%。 FlashAttentionv1版、v2版以及最新的v3版作者也是Mamba架构的共同第一作者,普林斯顿大学助理教授Tri Dao。 未来,FlashAttention新版将被集成到Meta研发的全球最流行的PyTorch训练框架中,目前发布了用于Beta测试版源代码。 在保持准确性的同时,使用FP8这样的低精度,性能能够接近1.2 PFLOPS。这不仅加快了处理速度,还能减少内存使用,从而为运行大规模AI操作的客户节省巨额成本、提高算力效率。通过加速注意力机制,FlashAttention v3使AI模型能够更高效地处理更长的文本。 每天3分钟,掌握全球AI大事件!《田丰说》全网发布,敬请关注!
关注《田丰说》,每天3分钟,掌握全球AI大事件!本视频由商汤“如影”数字人APP生成。 田老师认为,基础科研对人类文明发展、国家竞争力提升作用巨大,1925年狭义相对论、量子力学理论的涌现,为人类带来了半导体、计算机、激光、核能等超过一百年的科学红利,今日人工智能逻辑推理能力快速提升,为率先取得科研突破性进展,全球尤其是美国科研机构,积极开展与OpenAI、DeepMind等AI公司的深度合作,已经不断在新材料、新能源、医药等领域取得重大价值,我国科学智能的发展仍处于起步期。 全球AI要闻,OpenAI与美国国家实验室战略牵手,落地AI for Science! 7月10日,OpenAI宣布正在和美国领先的国家实验室之一,洛斯阿拉莫斯国家实验室 (LANL)合作,以了解科学家首次在实验室环境中安全地使用多模态AI模型,推动生物科学研究。最近,美国白宫发布对安全使用的AI行政命令,要求美国能源部的国家实验室帮助评估前沿AI模型的能力,包括生物能力。OpenAI称这非常重要,AI有可能成倍提升科学研究速度。 目前,Moderna正在利用OpenAI 的技术,通过构建一个数据分析助手来帮助分析大型数据集,增强临床试验的开发。双方正在开展一项评估研究,包括对GPT-4o以及目前尚未发布的实时语音系统进行生物安全性评估,来了解如何利用AI支持生物科研,包括细胞培养、细胞分离、转化等。 每天3分钟,掌握全球AI大事件!《田丰说》全网发布,敬请关注!
关注《田丰说》,每天3分钟,掌握全球AI大事件!本视频由商汤“如影”数字人APP生成。 田老师认为,在数千年进化过程中,人类智能获得的交流、逻辑思考、行动力、创新力、协同力,正在人工智能技术上重现、强化,目的是让人类成长为人机协同的“超级人类”。 全球AI要闻,OpenAI宣布五级AI路线图,当前智能处于第2级。 据彭博社独家报道,本周二OpenAI在全员大会上提出了一套由5个级别组成的AI能力框架,用于跟踪智能程度进展,并认为目前他们已接近第2级水平。OpenAI计划将这些等级与投资者和公司外部的其他人分享。 第一级智能是语言聊天机器人Chatbot,第二级智能是“推理者”,这里指的是能够像没有使用任何工具的博士学位水平人类一样执行基本问题解决任务的系统。OpenAI领导层展示了涉及GPT-4模型的研究项目,内部测试了一些达到类似人类推理水平的新技能。第三级智能被称为“代理人”Agent,意味着AI能够在用户授权下连续几天采取行动的人工智能系统。第四级智能叫做“创新者”Innovator,描述的是能够提出创新方案的人工智能。而最高级第五级智能被称为“组织”,AI能完成一个组织的复杂工作。这个智能等级体系是由OpenAI高管和高级领导层共同制定的,并将开展持续研发工作。公司将从员工、投资者和董事会成员等人那里收集反馈,随着时间的推移对等级进行调整。 每天3分钟,掌握全球AI大事件!《田丰说》全网发布,敬请关注!
关注《田丰说》,每天3分钟,掌握全球AI大事件!本视频由商汤“如影”数字人APP生成。 田老师认为,武汉等城市的很多消费者已经尝鲜了无人驾驶出租车,目前尚处于市场投放验证阶段,长期商业模式仍有待进一步技术改良否则属于赔本推广,同时应该关注原有网约车司机的新型就业出路问题。 全球AI要闻,给无人驾驶网约车算算账,每天成本471元。 7月8日,北京市经信局就支持自动驾驶汽车用于网约车等征求意见,上海、长沙、武汉等地正促进无人驾驶汽车商业化落地。百度公司CEO李彦宏称第一季度武汉全无人驾驶订单比例已超55%。据晚点财经测算,按照武汉市交通运输局对媒体说法,现在萝卜快跑在当地运营400多辆无人驾驶出租车,都是Apollo第五代车。 此前百度副总裁、自动驾驶技术部总经理王云鹏说包括整车以及无人驾驶套件等在内,Apollo 第五代无人车的各项成本总计48万元,且车辆可确保5年内的可靠运营,每天就是263元。在现役运行车辆中,算上单日远程安全员成本、电费,不计入前期巨额研发投入、高精地图更新、车险情况下,单日运营成本5年分摊后,每天约471元。 在收入端,萝卜快跑应用程序显示,在武汉经开区,5公里左右的订单补贴后约5元。无人驾驶出租车需要产生更高流水,或实现更低的成本,才能在竞争中胜出。 每天3分钟,掌握全球AI大事件!《田丰说》全网发布,敬请关注!
关注《田丰说》,每天3分钟,掌握全球AI大事件!本视频由商汤“如影”数字人APP生成。 田老师认为,AI芯片公司的护城河其实是AI基础软件,例如英伟达的Cuda、Omniverse,AMD等芯片竞争者正在通过收购模型研发团队追赶英伟达。[建筑外的绿色招牌 描述已自动生成] 全球AI要闻,AMD花6.65亿美元现金收购欧洲AI实验室。 7月10日,全球芯片公司AMD宣布用6.65亿美金收购位于芬兰的欧洲最大私人AI实验室Silo AI,而且是全现金收购。[文本 描述已自动生成] AMD官网称,该协议代表着该公司基于开放标准与全球人工智能生态系统建立了强有力的合作伙伴关系,提供端到端人工智能解决方案的战略又迈出了重要一步。Silo AI团队是一家私人AI实验室,主要为在云、嵌入式和端点计算市场的领先企业开发量身定制的人工智能模型、平台和解决方案。该公司客户包括安联、飞利浦、劳斯莱斯和联合利华。最显著的成就之一是开发了基于AMD平台的开源多语言大模型Poro和Viking。AMD正在加速部局,希望缩小与英伟达差距。 每天3分钟,掌握全球AI大事件!《田丰说》全网发布,敬请关注!
关注《田丰说》,每天3分钟,掌握全球AI大事件!本视频由商汤“如影”数字人APP生成。 田老师认为,在每一个科技时代大幕拉开时,新一代基础设施核心厂商将会变身“印钞机”,如生成智能时代的英伟达,当GPU产品的利润极高时,将吸引来资本疯狂下注,推动更多创新型科研竞争者加入游戏,最终在一个中长周期内带来更为平价普惠的AI算力产品选择,当然短期内英伟达的科研储备“护城河”依然有效。 全球AI要闻,Groq公司迎来3亿美元投资,推闪电大语言模型引擎。 AI芯片公司Groq将在未来2周完成由贝莱德领投的3亿美元融资,估值达22亿美元。 Groq创始人是谷歌专用芯片NPU发明者之一Jonathan Ross。本周,Groq推出了大语言模型引擎,让开发者们直接进行语言文本类快速查询和任务执行。使用Meta LLama3-8b-8192大语言模型,默认支持其他模型,每秒可处理1256.54个Tokens,超越英伟达GPU芯片。Groq速度如此之快,是因为专门针对大语言模型底层架构而设计。4月份,Ross表示不再试图直接向客户销售硬件,转向提供AI云计算服务。因为客户自购和设置Groq的芯片成本太高、风险太大。此外,Groq还面临着来自其他AI芯片初创公司的激烈竞争,例如Etched和Taalas等。 每天3分钟,掌握全球AI大事件!《田丰说》全网发布,敬请关注!
关注《田丰说》,每天3分钟,掌握全球AI大事件!本视频由商汤“如影”数字人APP生成。 田老师认为,2024年是端侧AI助手元年,轻量级小模型更懂你,借助云侧大模型、调用各类APP,端侧小模型将会推动AI手机、AI PC的换机潮,硅谷出现了“苹果+OpenAI”、“三星+谷歌”的端智协同,国内早在4月底就有商汤18亿参数小模型+国产手机和小米SU-7智能车舱的成功案例,你的下一部手机将会不同凡响。 全球AI要闻,三星向苹果开火,手机一键召唤谷歌Gemini助手。 7月10日,三星公布了做端侧AI的重要战略思考,跟苹果的AppleIntelligence的思路相似,比如端侧个性化AI、情境化、个人知识图谱。在三星手机上,用户只需要说“Hi,Google”就能直接召唤出Gemini助手服务。 三星手机上将AI助手嵌入各类App中,比如帮你重写邮件,一键把你朋友的照片变成动漫风格图片。 在多模态应用上,用户直接给 Gemini发一个视频链接,然后对视频内容进行提问。谷歌高管在现场宣布计划将Gemini整合到安卓生态的其他旗舰设备上。 三星、谷歌合作落地了AI“画圈即搜”,打开相机AI立即能识别取景框中的信息,比如识别屏幕上的数学公式,寻找解题方法。 此外,现场还发布了从折叠屏手机、智能戒指、手表、耳机等智能新品,AI一词被提及了上百次。 每天3分钟,掌握全球AI大事件!《田丰说》全网发布,敬请关注!
关注《田丰说》,每天3分钟,掌握全球AI大事件!本视频由商汤“如影”数字人APP生成。 田老师认为,当前的基础大模型正在依赖尺度定律更庞大的算力、数据、参数快速提升能力水平,23年到25年的大模型能力会从本科生提升到博士生智力水平,AI原生公司需要在3至6个月升级的基础大模型上,找到降低成本的应用实践,从而让AI应用能在产业场景中跟上基础大模型的市场预期,微软All in AI就是通过千亿美元级别大笔投资更庞大的AI超级计算中心。 全球AI要闻,微软CTO分享搞大模型最容易犯的错。 7月10日,微软公司CTOKevin Scott与红杉资本合伙人Pat Grady、Bill Coughran对话分享:“我认为在Scaling(尺度定律)这件事上,微软稍微有点落后,2017年后我们没有很快把所有鸡蛋都放进正确的篮子里,虽然在AI上花了很多钱,也只是不想伤害‘内部聪明人’的感情,但这些钱被分散在一大堆不同的事情上,甚至不知道诊断结果是什么。我们没有笃定规模才是最重要的 。我重组了微软内部,更加专注AI。在2019年战略投资和OpenAI合作,一起探索构建AI平台的基础系统是什么。” 亮点1,目前整个领域最有趣的是,前沿模型的能力确实呈指数级增长,而且还没有达到规模边际收益递减的程度。2019年,微软对尺度定律有了清晰的认识,当时有两三个选择,在CEO纳德拉和CTO Kevin看来,选OpenAI是让我们自力更生并进入正轨的最快方法。 亮点2,Scaling的影响是每隔几年一次,因为建造超级计算机并大规模训练需要时间,下一代大模型即将问世。6月初微软也提到已见到了PhD-level博士智能水平的模型。微软AI板块CEO、前Inflection创始人Mustafa Suleyman预测,2年内会见到完成Agent能力的博士智力模型,而不是热议的GPT-5。 亮点3,微软内部反思,产品研发会犯的错误就是,认为解决问题的唯一方法就是我必须去利用前沿模型,并用一大堆东西来补充。要让自己有足够的灵活性,以便前沿模型出现,迅速适应它。 亮点4,一种扼杀是,团队看到前沿模型后,说绝对不可能在此基础上部署产品,因为太贵了,然后开始要人和GPU,他们要建立一个特定的模型,与前沿模型边界性能相似,成本便宜些。但前沿模型一迭代,新的点就把当下产品碾压了。 每天3分钟,掌握全球AI大事件!《田丰说》全网发布,敬请关注!
关注《田丰说》,每天3分钟,掌握全球AI大事件!本视频由商汤“如影”数字人APP生成。 田老师认为,智能体必须拥有低成本、低能耗、高速检索的长短期记忆,才能自主完成复杂任务、自我迭代优化。 全球AI要闻,中国科学院鄂维南院士分享,大模型还有第3种记忆。 近日,鄂维南院士领衔,来自上海算法创新研究院、北京大学等机构的研究者受人类大脑记忆层次结构的启发,他们通过为大语言模型LLM配备“显式记忆”,一种比模型参数和RAG更便宜的记忆格式来降低成本。从概念上讲,由于其大部分知识都外化为显式记忆,因而大语言模型能享受更少的参数大小、训练成本、推理成本。 研究者从零开始训练了一个2.4B即24亿参数的大语言模型,它比更大的语言模型和RAG模型获得了更优的性能,并实现了比RAG更高的解码速度。这个模型被命名为Memory 3“记忆体3”,因为在大语言模型中,显式记忆是继模型参数的隐式记忆、上下文键值的工作记忆之后的第三种记忆形式。该技术减轻了幻觉,并能够快速适应专业任务。 每天3分钟,掌握全球AI大事件!《田丰说》全网发布,敬请关注!
与播客爱好者一起交流
添加微信好友,获取更多播客资讯
播放列表还是空的
去找些喜欢的节目添加进来吧