通用大模型的边际进步放缓,“小而专”的行业小模型会否取代“一个模型统治一切”?从而重排AI商业模式的权力版图?
世界还在沉睡,先锋已在路上。全球先锋报邀您一起洞察国际棋局,聆听趋势的第一声回响。
本期聚焦“大模型信仰退潮、小模型抬头”的结构性拐点:从“革命式发布”步入“年度小改”,企业将目光转向参数更小、可私有化部署、在特定场景更可靠且更省钱的小模型。训练范式由“海量爬网”转向“大教小”的蒸馏与微调,带来性能与成本比的跃迁;在智能体与端侧应用中,小模型以更低延迟、更低能耗在手机、车载与机器人等设备上占优。全球先锋报将从技术边际、ROI与TCO、企业落地可靠性、智能体与端侧、算力与基础设施、平台战略六个维度,解析新秩序的来路与去向。
人们对神一般的大语言模型的信仰正在减弱
这或许是苹果等 AI 落后者的好消息。当科技圈讨论大语言模型进展乏力时,他们常常拿智能手机作类比。OpenAI 的 ChatGPT 在诞生初期,就像 2007 年苹果 iPhone 的发布那样具有革命性。但如今,人工智能前沿的进展更像是手机每年的平淡升级,而不是颠覆性突破。OpenAI 最新的 GPT-5 模型就是一个典型例子。它引发的反应,就像苹果 9 月 9 日发布的 iPhone 17一样:只是集体耸肩。
进展放缓和“小模型”的崛起
生成式 AI 最尖端的发展速度减慢,是大模型 不再符合预期的一大迹象。或许更重要的信号,是体量更小、运行更灵活的替代模型开始在企业界大受欢迎。许多公司更喜欢可量身定制、契合自身需求的模型。这些所谓的小语言模型相比通用型的大模型更便宜,而“神一般”的智能在很多场景下并无必要。正如 IBM AI 模型研究负责人 David Cox 所说:“你的 HR 聊天机器人没必要懂高等物理。”
除了可以像云服务那样运行于公司内部 IT 系统上,小语言模型 在 AI 智能体领域也更实用。这些智能体可与人类协同或替代人类完成工作。由于更轻量,它们特别适合用于智能手机、自动驾驶汽车、机器人等对能效和速度要求极高的设备上。如果它们继续变得更加可靠,这将证明苹果等设备制造商选择不盲目砸钱投入云端大模型,是一种有远见的决定。
小即是美:参数数量的分界线
目前尚无明确标准界定“大模型”与“小模型”的区别,主要取决于训练参数的数量。也就是模型“脑中”的数值设置,用于理解数据。大模型的参数量可达数千亿,而 小模型 通常训练在 400 亿以下,甚至微型模型只有不到 10 亿。
随着训练技术的进步,小模型 的能力正在迅速大模型。如今,小模型通常由大模型“教授”而非自己从网页爬取数据学习。全球先锋报的科技研究员Henry指出,英伟达最近推出的 90 亿参数模型 Nemotron Nano,在多项测试中表现优于 Meta 4 月发布的 Llama 模型。尽管后者的体量是前者的 40 倍。这类“后来居上”的现象正变得越来越常见。科技市场调研公司 Counterpoint 的 Mohit Agrawal 表示:“今天的小模型,比去年许多大模型更强大。”
企业用户偏爱小模型
小模型的性能提升吸引了大量企业客户。Henry指出,大模型存在广为人知的缺陷,如“幻觉”,导致用户产生“使用疲劳”。企业更倾向于在行业专属数据上微调的小模型。预计今年对这类模型的企业需求增长速度将是 大模型 的两倍,尽管基数仍小。Henry 还预测,未来更多专属模型将由企业内部自行开发。
小模型受欢迎的另一个原因是经济性。企业已从最初“砸钱也要上”的 AI 态度,转向更注重投资回报。虽然仍有许多任务会用到大模型,但通过小模型完成一些可重复的简单任务,可以节省大量成本。正如一位知名风投人士所言:“从旧金山飞北京需要波音 777,从旧金山飞洛杉矶就不需要了。”他说:“把最重型的大模型用于所有问题,是不合理的。”
小模型也能撑起“实用场景”
Henry指出公司开发的 Docling 工具可以将 PDF 格式的收据等文档转化为可存储数据。这款工具运行在一个仅有约 2.5 亿参数的“微型”模型上。他称其“非常有用”,但如果用大模型来运行,则在成本上就得不偿失。
小模型还能运行在更便宜的芯片上。最小的模型甚至可以使用中央处理器CPU。这种通用计算核心远比昂贵的图形处理器GPU便宜,而 GPU 正是让英伟达成为全球最有价值公司的关键。Henry形容 GPU 为“挑剔的法拉利,总在维修车间”,而 小模型 则更像是省油耐用的小车。
英伟达研究:未来属于小模型智能体
小模型在智能体agent领域的前景也越来越被看好。英伟达研究部门在 6 月发表的一篇鲜为人知的论文直言不讳地写道:“小模型,而非大模型,才是智能体 AI 的未来。”该论文指出,尽管目前大多数 AI 智能体仍由云端 大模型 驱动,但企业在 AI 云基础设施上的投资过于依赖这种现状。论文挑战了这一假设,认为 小模型 的能力已足以胜任智能体任务,且成本更低。例如,运行一个 70 亿参数模型的成本可能是运行一个大 25 倍模型的十分之一 到 三十分之一。这也将促使构建智能体的方式转向“乐高式”的组合结构:用多个小专家代替一个大模型。
Nvidia:多样化才是未来
尽管我们对大模型依赖的基础设施投资提出质疑,英伟达高管 Kari Briski 澄清称,这并不代表公司的战略方向。她表示,企业客户需要“各种形状和大小”的模型。最大的模型在处理最复杂任务时仍有优势。同时,她强调继续推进大模型 前沿仍有价值,因为大模型 是训练小模型的最好“老师”。
无论未来小模型 是否会全面取代大模型,一个可以确定的趋势是:异构化正在成为常态。全知全能的大模型 仍将在 ChatGPT 等消费级应用中发挥重要作用。但即便是 OpenAI,也在转向混合策略:GPT-5 内部集成了不同尺寸和能力的模型,可根据任务复杂度动态调用。
苹果“慢一点”的策略可能是对的
随着小模型 技术进步,未来“端侧 AI”也有望赢得好评。苹果去年发布“Apple Intelligence”时令投资者失望,因为其 AI 功能表现不佳。在今年 9 月 9 日的 iPhone 17 发布后,因未公布 Apple Intelligence 的新进展,股价也再次下跌。但 全球先锋报的科技研究员Henry判断,苹果选择用小模型在 iPhone 本地处理简单任务,将复杂工作交给云端,可能预示着未来 AI 应用的发展方向。他补充道:“即便苹果在 AI 竞赛初期错过了那艘船,但凭借它的体量和能力,随时能搭上下一艘。”
最终思考:慢工出细活?
目前,大多数注意力仍集中在 大模型 上。尽管微软和谷歌等云巨头也在开发极小模型,但他们对现有路径的坚信,支撑着其在训练与托管大模型的数据中心上倾注巨资。然而,这种信心可能是短视的。考虑到小模型的相对优势,苹果“慢一点”的策略,在长远看来,也许才是正确的选择。
全球先锋报观察到
杀鸡不用牛刀。多数业务不需要“全知全能”,而需要“一串小能手”分工协作、就近计算、稳定可控。下一轮胜出的,不一定是“更大的模型”,而是“更对的组合”:云端上小模型保隐私降时延,云端大模型当老师与总调度。这步看似慢,其实是在把“更神奇”换成“更好用”。
点一盏灯,留一声言,让微光汇成海。
感谢收听全球先锋报。我们明天再见。
空空如也
暂无小宇宙热门评论