https://babi.com/
slot gacor
bakautoto
关注《田丰说》,每天3分钟,掌握全球AI大事件!本视频由商汤“如影”数字人APP生成。 田老师认为,在人工智能的尺度定律中,数据越广、算力越大、则模型越强的趋势规律,推动研发机构追求更大规模、更多元化、更高质量的数据集,全球开发者偏爱免费的开源数据集,而开源数据中蕴含着世界认知、环境特点、文化价值,我国应在开源多模态数据集上加速建设,与美国硅谷缩小差距。 全球AI要闻,全球最大多模态数据集诞生,万亿token规模。 近日,美国华盛顿大学、Salesforce Research、斯坦福大学等机构组成的联合团队构建了一个万亿token级的交织多模态开源数据集MINT-1T,这是目前最大的开源多模态数据集。共包含一万亿文本token和三十亿张图像,包括HTML、PDF、ArXiv等多种不同来源。在 MINT-1T数据集问世之前,该领域最大的开源数据集是OBELICS。为了提高MINT-1T数据质量和安全性,研发团队执行了文本质量过滤、图像过滤、安全过滤、去重等操作。引人注目的是,整个数据处理过程耗费了大约420万个CPU小时数。由MINT-1T混合数据上训练的模型,在全球大多数评测基准得分都优于由OBELICS数据集训练的模型。 每天3分钟,掌握全球AI大事件!《田丰说》全网发布,敬请关注!
关注《田丰说》,每天3分钟,掌握全球AI大事件!本视频由商汤“如影”数字人APP生成。 田老师认为,多模态大模型在奖励机制下能够扩展出高质量的合成数据,这能解决真实数据增长缓慢、采购数据成本高昂的普遍问题,建议我国在国家级、区域级、行业级的AI公共算力平台上,加速建设融入高质量数据集、多模态大模型能力的合成数据管线。 全球AI要闻,英伟达最新分享,用好Meta Llama 3.1能够改进模型。 英伟达最新分享了Meta公司Llama 3.1大模型合成数据技术与RAG系统微调实践指南,在官方博客文章中介绍了使用大型语言模型LLM生成合成数据,来提高不同行业的人工智能模型性能。合成数据不是创造新信息,而是通过转换现有信息来创建不同的数据变体,这一过程能够帮助模型提升准确性。例如,将最新的Llama 3.1与英伟达Nemotron-4 340B奖励模型配合使用,非常适用于生成合成数据,要让大型语言模型生成最新信息的有效响应数据,构建RAG流程十分重要,而且模型响应的准确性取决于流程的质量。 每天3分钟,掌握全球AI大事件!《田丰说》全网发布,敬请关注!
关注《田丰说》,每天3分钟,掌握全球AI大事件!本视频由商汤“如影”数字人APP生成。 田老师认为,将来自于物理数据、人类数据、科学推理逻辑作为“种子”,进行合成和扩展获得混合数据,正在成为大模型产业的必经之路,建议中国把工业企业数据、高校数学数据、科研院所思维链数据共享、汇编为训练数据种子,由国家平台向基础模型研发机构开放,将显著提速我国人工智能科研创新速度。 全球AI要闻,混合数据才是未来,并非纯合成数据。 近日,《自然》杂志封面论文表明,随着新一代模型连续在合成数据上进行递归训练,模型会崩溃。Scale AI公司CEO Alexandr Wang对此深表赞同,强调利用纯合成数据来训练模型,都会丢失一些信息和精度。而混合数据才是未来发展方向,它能够避免所有与模型崩溃相关的风险。“数据墙”、生成新数据的难度是一个大模型发展遇到的真问题,但并非不能克服,答案就是混合数据,即人类专家利用合成方法产生大量数据,将大幅提高产量。超越多轮推理的前沿数据将变得更有价值,这就是我们突破数据墙的方法。 亮点1,A16z合伙人Martin Casado指出,现在的“多轮数据”非常昂贵。单个答案的价格为20到200美元以上,具体取决于数据质量。这就是为大型语言模型LLM研发所需“新数据”的成本,我们需要更大数量级的训练数据来继续扩展。 亮点2,Wang预测,当今许多研究人员将合成数据视为人工智能的“点金石”,如果在没有信息增益的合成数据上草率进行训练,开发人员会发现模型随时间推移变得越来越奇怪和愚蠢。 亮点3,在混合数据过程中,必须通过某种新信息来源来生成,使用真实世界数据作为种子、人类专家参与、形式逻辑引擎等。 亮点4,在使用合成数据训练新模型时,不仅应关注生成器的质量,还需要一个高质量的验证者来选择数据。 亮点5,一个被忽视的效应是,市场为创建高质量数据所花费的成本越高,模型的质量就越好,从而进一步提高了未来数据的质量标准和所需成本。 每天3分钟,掌握全球AI大事件!《田丰说》全网发布,敬请关注!
关注《田丰说》,每天3分钟,掌握全球AI大事件!本视频由商汤“如影”数字人APP生成。 田老师认为,基础大模型的研发掀起了算力基建浪潮,而伴随大量AIGC应用的普及,“算力饥饿”现象将会持续3年时间,直到新一代更便宜、产能管够的国产化AI芯片推向市场。 全球AI要闻,Gartner预判,AI数据中心支出超预期。 Gartner最新全球IT支出预测,数据中心系统支出将增长24.1%,是3个月前预测数据10%的2倍多,这一切都是因为生成式人工智能GenAI,这种算力增长的影响可能会持续几年时间。英伟达成为AI服务器GPU市场占据主导地位的“头号玩家”,已经解决了大部分供应链问题。全球互联网与AI厂商正在尽可能多地购买GPU芯片,来构建和迎接新一代AI推理浪潮,推理对算力的依赖程度高于训练,“虽然你只构建了一个模型,但全年都在推理使用它”。 Gartner预计,2024年超大规模数据中心企业将在云计算基础设施上花费700亿美元,到2025年将增长到1400亿美元,2028年继续增长到2100亿美元。分析师说:“我们仍然没有看到这些工具的最终状态,我们远没有看到一套大型语言模型的商品状态,甚至没有看到大型语言模型应该具备的基本确定功能。” 每天3分钟,掌握全球AI大事件!《田丰说》全网发布,敬请关注! #人工智能,#大模型,#AI,#英伟达,#GPU,#数据中心,#AI服务器,#云计算,#数字人,#硅谷,#人工智能+
关注《田丰说》,每天3分钟,掌握全球AI大事件!本视频由商汤“如影”数字人APP生成。 田老师认为,AI攻克复杂数学,是一个伟大的机器智力里程碑。语言是人类描述世界的符号,“数学是上帝描述自然的符号”,这是黑格尔说的。而笛卡尔认为“数学是知识的工具,也是其他知识工具的源泉。所有研究顺序和度量的科学均和数学有关。”当AI能够学习世界顶级数学家的长链条思考逻辑,人类文明将掌握打开科学大门的万能钥匙。 全球AI要闻,谷歌AI勇夺“国际奥数”银牌,数学推理模型面世。 高级数学推理是现代人工智能一直追求的关键智力。谷歌DeepMind团队推出的混合AI系统在今年国际数学奥林匹克竞赛中考出了银牌成绩。该AI数学模型结合了新型推理模型AlphaProof和改进版模型AlphaGeometry 2,仅差1分就能达到人类金牌标准,而在今年参赛的609名人类参赛者中,只有58人获得了金牌成绩。 为了克服形式化语言训练数据不足的问题,研究团队通过微调Gemini模型,创建了一个包含各种难度的形式化题库。在准备IMO国际奥数比赛期间,AlphaProof模型在数周内证明、反驳了数百万个难题,覆盖各种难度和数学专题。在比赛过程中,AI还在继续应用这个训练循环。谷歌正在继续探索推进数学推理的AI方法,并计划很快发布AlphaProof的更多技术细节。 每天3分钟,掌握全球AI大事件!《田丰说》全网发布,敬请关注!
微软 vs OpenAI 小模型大战! 关注《田丰说》,每天3分钟,掌握全球AI大事件!本视频由商汤“如影”数字人APP生成。 田老师认为,OpenAI刚推出免费版GPT-4o mini微调服务,微软就推出云上免配置Phi-3微调服务,初期免费。对于广大财力、算力都不足的开发者来说,不论大模型还是小模型,能为我所用的就是好模型,尤其是目前Phi-3这类30亿小模型能力已经追赶上GPT-3.5水平,已经迈过了全社会推广的能力门槛、价格门槛。 全球AI要闻,微软Phi-3模型重大更新,支持云上“微调”。 7月25日,微软宣布Phi-3-mini和Phi-3-medium均可在微软云Azure上进行微调。微调允许开发人员针对不同用例提高基础模型的性能。例如,针对学生辅导对 Phi-3-medium模型进行微调,也能根据特定语气、答复风格构建聊天应用。 可汗学院等全球创新机构已经在实际的人工智能应用中使用了Phi-3模型。如预期所料,小模型广受欢迎,30亿参数的Phi-3-small模型现在支持用户在云端通过“无服务器微调”使用,支持快速开发人工智能应用。 微软 CEO Nadella说:“我们提供最好、最多样化的模型选择(Azure AI有超过1600种模型可用),以满足客户独特的成本、延迟和定制需求。仅在上周,我们就为Azure AI带来了OpenAI、Meta等公司的最新产品,还更新了我们自己的Phi-3系列小语言模型。” 每天3分钟,掌握全球AI大事件!《田丰说》全网发布,敬请关注!
关注《田丰说》,每天3分钟,掌握全球AI大事件!本视频由商汤“如影”数字人APP生成。 田老师认为,国际体育已经迈入了人工智能时代,NBA教练非常看重球员训练和比赛数据,而以HawkEye、BreakAwayData为代表的美国体育科技公司已经为其提供了动作捕捉、可穿戴传感器、数据智能分析技术,而国产体育AI模型将助力中国在世界体育强国之路上持续创新与突破。 全球AI要闻,商汤日日新大模型亮相巴黎奥运会。 商汤科技日日新大模型技术在巴黎奥运会上得到应用,涉及赛事转播、竞技分析等多个领域。商汤AI智慧篮球产品将为中国国家篮球队提供服务,包括运动数据分析和竞技策略优化。 商汤科技还与SMT合作开发InnoMotion赛事转播方案,采用了商汤的3D无感知运动捕捉技术。该技术能够实现多人、大范围、多角度的多元场景覆盖,无需繁琐的穿戴设备,即可通过机器视觉实时获取双方运动员空间运动姿态信息,并进行负荷分析、技战术分析。商汤的智慧赛事转播技术也将应用于乒乓球和射箭项目的全程赛事转播。 每天3分钟,掌握全球AI大事件!《田丰说》全网发布,敬请关注!
关注《田丰说》,每天3分钟,掌握全球AI大事件!本视频由商汤“如影”数字人APP生成。 田老师认为,搜索是传统互联网的核心流量入口,而新一代互联网的入口是智能体,智能体比搜索框具有更好的语音交互能力、用户意图理解、多轮追问、指令跟随、广泛工具调用、长期记忆、复杂任务处理等能力,所以搜索作为高频工具插件被嵌入到浏览器、视频播放器、AI编程软件等各种智能体中。 全球AI要闻, OpenAI官宣SearchGPT,万人内测AI搜索。 7月26日,OpenAICEO Sam Altman在X社媒上发布了AI搜索产品SearchGPT,GPT-4 系列模型驱动,并坦言:“搜索还有很大改进空间。我们正在推出SearchGPT的新产品,与老式搜索相比,我更喜欢这种搜索方式。”目前只向10000名测试用户开放内测,计划将AI搜索技术集成到ChatGPT中,实时发挥最大限度的作用。当网友问到:“GPT-4o的语音功能什么时候上线?”SamAltman回应说:“下周向Plus会员推出GPT-4oAlpha版本。”几乎同时,谷歌宣布了Gemini产品的更新,但股价下跌3%。谷歌官方放出的Gemini搜索预览来看,用户只需像和真人对话一样,向谷歌说明搜索要求,即可获得实时响应,支持多轮人机对话。 亮点1,跟传统搜索相比,SearchGPT迅速直接地使用网络上最新信息回应问题,嵌入了多样式答复内容,包括数据、列表、图片、视频、卡片,提供相关资源的链接。通过在搜索结果中显著标明引用链接,关联到出版商,能在侧边栏中与更多结果进行互动。 亮点2,SearchGPT每次查询都共享同一个上下文,比如搜索出了一些西红柿品种后,我们继续追问:“哪些是现在可以种的?”AI会详细列出,在7月明尼苏达州最适合种植的西红柿种子。 亮点3,OpenAI已经与多家头部媒体建立了战略合作,包括《大西洋月刊》、美联社《华尔街日报》、《泰晤士报》、《太阳报》等,并向这些媒体展示了搜索功能的原型应用,合作媒体机构能够自行选择内容来源在SearchGPT中的呈现方式。 亮点4,截止6月搜索市场格局是,谷歌在全球搜索引擎市场中占到了91.05%的份额,微软必应只有3.7%的份额,而Perplexity的份额太低,无法衡量。 每天3分钟,掌握全球AI大事件!《田丰说》全网发布,敬请关注!
关注《田丰说》,每天3分钟,掌握全球AI大事件!本视频由商汤“如影”数字人APP生成。 田老师认为,人类需要使用更聪明且更安全的AI,这已经成为中美等全球共识,OpenAI等一众硅谷创业企业都在研发新的模型安全技术,同时加大研发投入、提升营收能力。 全球AI要闻,人类反馈强化学习RLHF不够用了,OpenAI重新设计安全机制。 7月25日,OpenAI公布了一种教导AI模型遵守安全政策的新方法,称为基于规则的奖励,简称RBR。作为论文作者之一,OpenAI 安全系统负责人Lilian Weng表示,RBR规则奖励技术能够自动执行模型微调。传统上,我们依赖于来自人类行为反馈的AI强化学习,作为默认的人机对齐训练方法来训练模型,但当今面临的挑战是,花了很多时间讨论政策的细节,而到最后,安全策略可能已经改变了。RBR规则奖励技术,是使用一组安全规则来定义期望或非期望的行为,例如拒绝不应带有评判性,并结合一个大语言模型LLM评分器。即以另一个AI提供强化学习信号,帮助被训练模型更容易适应不断变化的安全政策,而无需严重依赖人类反馈数据。此外,借助RBR技术,研究者能够采用更统一的视角看待安全性和模型能力,因为更强大的分级模型能提供更高质量的强化学习信号。OpenAI 分享自GPT-4发布以来,他们一直将RBR技术用作安全堆栈的一部分,包括GPT-4o mini研发,并计划在未来的模型中实施它。 另据外媒The Information报道,OpenAI今年或许面临高达50亿美元的亏损。今年在模型算力方面,开支40亿美元租用微软服务器,在模型训练成本和研发人力成本开支将达到惊人的85亿美元。目前OpenAI公司人数已近翻倍,达到1500余人。而在营收方面,OpenAI每月收入大约2.83亿美元,全年预计营收35亿到45亿美元。 每天3分钟,掌握全球AI大事件!《田丰说》全网发布,敬请关注!
关注《田丰说》,每天3分钟,掌握全球AI大事件!本视频由商汤“如影”数字人APP生成。 田老师认为,互联网数据推动大模型突飞猛进的成长期已过,最领先的大模型研发依赖高质量的合成数据,下一代大模型将展现出惊人的智能体能力,包括先思考再行动、调用工具、自我改进等。 全球AI要闻,Llama3.1作者认为,网络文本基本都是“狗屎”。 7月24日,Meta AI研究员ThomasScialom一直负责Llama 2/3系列模型post-training后训练,他在LatentSpace播客分享指出,网络上的文本都是“狗屎”,在这些标记上训练是在浪费算力。而目前训练后的Llama 3模型基本上没有任何人工编写的答案,它只是利用了Llama 2的纯合成数据。他指出Tokenizer的大小规模很重要,这一点被人们轻描淡写地忽略了。 亮点1,Llama2有3.4万个词库,即标记词表,GPT-4有10万个,GPT-4o增加到20万个。Llama3增加了4倍,达到12.8万个词库。如果一个标记符能表示更多的信息,那么在表示相同数量的文本时,需要的标记符总数就会减少,扩大了可感知的上下文大小,这能提高训练效率、存储空间利用率。 亮点2,Llama3.1在54天预训练期间遭遇了417次意外中断,挑战巨大。为什么不是MoE架构?Thomas回答,密集模型只是MoE超参数模型的一个特定变体,基本上只有一个专家模型,未来会探索MoE架构。 亮点3,Meta在6月已经开始训练Llama4大模型,重点围绕智能体,多模态版本将稍后发布。当前的Llama3模型在智能体工作流方面存在“智能差距”,AI无法在用户不依赖ReAct推理技术、CoT思维链、Autogen框架等技术时进行。 每天3分钟,掌握全球AI大事件!《田丰说》全网发布,敬请关注!
关注《田丰说》,每天3分钟,掌握全球AI大事件!本视频由商汤“如影”数字人APP生成。 田老师认为,伴随美国Meta、法国Mistral两家企业在开源基础模型上的持续研发投入,开源大模型迎来了反超闭源大模型的一波浪潮,虽然部分开源模型的商业化落地需要原厂License许可,开源是一种开发者友好型的生态战略,并不代表完全自由的免费商用。中国超过20亿的物联终端,应提前考虑国产化小模型的落地规划,7月商汤推出了“日日新5.5”端云一体模型,每台终端设备的包年使用成本最低仅需9.9元。 全球AI要闻,Mistral AI公司推出123B开源大模型,硬刚Meta刚发布的Llama 3.1。 2天内,世界就有了2个GPT-4水平以上的开源大模型发布。法国AI创企Mistral AI升级开源竞争,7月25日发布了下一代AI产品:MistralLarge 2开源大模型,123B代表1230亿参数量,拥有128K上下文,支持包括中文在内的11种语言,以及80多种编程语言。虽然参数量低于Meta Llama 3.1的405B 4050亿参数量,但实测得分二者性能接近,可用于单个H100 节点。Mistal Large 2大模型提供了开放的权重,允许第三方根据需求对模型进行调整,自行部署必须提前获取Mistral AI 商业许可证。AI搜索独角兽PerplexityCEO说:“当前趋势很明显,大家把赌注押在小型开源模型、提炼和微调、服务和数据收集上。一两个前沿的闭源模型仍有价值,但不是全部。” 亮点1,Mistral AI 基于Codestral 22B和Mamba的经验,在很大一部分代码基础上训练了Mistral Large 2。研发团队投入大量精力增强模型的推理能力,重点之一就是尽量减少模型产生幻觉,或产生合理但实际上不相关信息的倾向。 亮点2,与上一代Mistral Large1模型相比,Large 2模型在对齐和指令功能上投入了更多精力。在WildBench、ArenaHard 和 MT Bench评测题库 上,Large 2表现与全球最佳模型相当,同时冗长程度明显降低。 亮点3,Mistral Large2模型配备了增强的函数调用和检索技能,Function Calling单项能力在实测中,Large2得分超过GPT-4o,能够完成执行任务和顺序函数调用,成为复杂业务应用程序的强大引擎。 每天3分钟,掌握全球AI大事件!《田丰说》全网发布,敬请关注!
关注《田丰说》,每天3分钟,掌握全球AI大事件!本视频由商汤“如影”数字人APP生成。 田老师认为,25年前比尔·盖茨认为,在预测未来发展的时候,多数人会过于高估“短期的变化”,而低估了“长期的发展”,当人工智能+新型生产力技术到来时,熟悉传统生产力和传统生产关系的人们往往会犯刻舟求剑、颠覆式创造力不足的老毛病,人工智能是第四次工业革命,而不仅仅是一套热门技术工具,所以掌握底层逻辑的科技巨头们已经转移出大笔投资进行战略性基建投资、科研投资。 全球AI要闻,谷歌云业务首次破百亿,兑现AI增长。 7月24日,Google公布2024年第二季度财报,营收达847.4亿美元,其中广告收入放缓为646.2亿美元,同比增长13.6%,通过重组和人员优化后净利为236.2亿美元,同比增长28.6%。GoogleCloud谷歌云成为财报中一大亮点,营收同比增长29% 至 103.5亿美元,利润翻3倍达11.72 亿美元。这是云业务首次实现季度收入超百亿。 谷歌CEO桑达尔·皮查伊强调,对于谷歌母公司Alphabet而言,在AI领域投资不足的风险远远大于过度投资的风险!谷歌在搜索引擎中不断应用 AI 技术,吸引了更多用户和广告主。在二季度,谷歌资本开支达130亿美元,主要用于AI基础设施建设。未来几年将向自动驾驶子公司 Waymo额外投资50亿美元,Waymo每周提供超过5万次付费乘车服务。 每天3分钟,掌握全球AI大事件!《田丰说》全网发布,敬请关注!
与播客爱好者一起交流
添加微信好友,获取更多播客资讯
播放列表还是空的
去找些喜欢的节目添加进来吧