https://babi.com/

slot gacor

bakautoto

【财经早餐】每日财经专栏 - 面对DeepSeek冲击,黄仁勋终于露面了! - EarsOnMe - 精选播客,一听即合
Album
时长:
7分钟
播放:
548
发布:
11个月前
主播...
简介...
https://xiaoyuzhoufm.com

自DeepSeek爆火以来,大洋彼岸的英伟达就被推上了风口浪尖。毕竟,DeepSeek最大的卖点就是一个词——便宜,在与GPT-4性能相近的情况下,大幅降低了训练和推理成本,同时,其坚定开源的态度也迥异于部分海外大模型厂商,最后,出色的中文处理能力,一次又一次给用户带来惊喜。


DeepSeek冲击英伟达


但对AI教父黄仁勋来说,AI可以不好用,可以技术迭代得慢,但绝不能便宜(训练成本低),否则,在AI还没遍地开花之前,各家企业先冲着降本去了,作为“卖铲人”的英伟达,还怎么狂揽钞票?


这种担心自然反映到了股价上。


美东时间1月27日,英伟达股价一度暴跌17%,市值一夜蒸发超6000亿美元。


最值得玩味的是,英伟达方面,尤其是黄仁勋,始终“一声不吭”,有的人认为黄仁勋“也懵了”,有的人认为英伟达在“憋大招”,还有的人认为新的技术潮流下,英伟达也无法逆势而为。


此后,在高度沉默中,英伟达股价震荡回升,目前已经收复了大部分失地。


那么DeepSeek对英伟达到底有没有冲击呢?


这个问题得分两层看。


第一层,DeepSeek事实上并没有摆脱对英伟达的依赖。据《DeepSeek-V3技术报告》官方给出的是2048张英伟达H800芯片和1万张A100显卡。不管DeepSeek用的是新卡老卡,总归是用的英伟达产品,至于说支持华为昇腾的显卡,那只是可以部署调用,训练才是大头。


从这个角度看,似乎DeepSeek对英伟达还是利好。


之所以会重创英伟达股价,还是第二层。


第二层,就得说到英伟达的挤牙膏式创新与暴利了。需求饱和的商品,如果出现“降本增效”方面的重大创新,那么对上游无疑是巨大打击。譬如有人发现了大幅减少肥料用量的种植方法,那对肥料厂商无疑是重大打击。


但按理说,AI远未到全面普及和实用的阶段,所以训练AI的算力需求只会越来越大。所以无论大模型领域有何创新,对英伟达这种硬件厂商,都应该是中性偏正面的消息。所以英伟达受影响,不仅在于短期、潜在的“需求”收缩,更在于英伟达自身的业绩虚火。


英伟达业绩虚火,并不是说其业绩本身有什么问题,而在于其产品定价模式上,采取高举高打的策略。最直观的一点,英伟达最近毛利率稳定在75%,净利率在50%上下浮动。这样的盈利能力,哪怕对高技术制造业来说,也是相当高的。


英伟达这个卖铲人赚得盆满钵满,自然就意味着下游的大模型厂商被吸血。


过去,在OpenAI的带动下,卷算力成了大模型领域的“政治正确”。哪怕当前不需要,也会考虑留足冗余。


但DeepSeek的横空出世,提醒了整个行业,当前已有的数据集和算力,其潜力并没有得到充分释放。而这种“提醒”,为全行业提供了新的选项,提高了其他大模型厂商在英伟达面前的议价能力。


哪怕需要更多的训练来发布新产品,也可以选择进一步优化已有模型,而非单纯堆算力。


黄仁勋继续画饼


那么,面对此情此景,黄仁勋就“束手无策”,等着一众客户来砍一刀吗?


当然不会,黄仁勋选择在合适的时机(英伟达股价基本回到冲击前),在合适场合,DDN的新品发布活动上,为英伟达辩白。


合适的时机:如果股价刚有波动,就立马“澄清”,容易引发更大的质疑。


合适的场合:并非在某次媒体专访中,单独把DeepSeek拿来说事,而是在合作伙伴的新品发布活动上,以一种较轻松的态度将信息传递出去,借此显示英伟达成竹在胸。


2月20日,黄仁勋与其合作伙伴DDN存储的首席执行官亚历克斯·布扎里(Alex Bouzari)的对谈视频发布,黄仁勋在视频中回应称,投资人误读了DeepSeek异军突起的影响。


此次对谈,黄仁勋从三方面回应了市场的质疑:


第一点,即是大模型对英伟达产品生态的高依赖。他表示,“我们拥有所有必要的开源模型和开源工具包,如Nvidia的Nemo,Nvidia的Nims,以及像infinia这样的数据智能层……因此,它将成为所有这些AI助理的拓展。”


简单说,就是除了显卡,英伟达也做大模型,同时还为大模型的开发者提供工具,软硬件一体。


第二点,AI效果的改善,将带来更多的计算需求。“我认为市场对R 1的反应是,‘AI已经完成了,它从天而降。我们不再需要进行任何计算了。’情况恰恰相反,,因为深度观察所做的是让每个人注意到,有机会让模型比我们想象的更高效。因此它正在扩张,加速AI的采用。”


第三点,通用大模型并不是AI的尽头,“专属助理”才是市场更需要的。他指出“预训练是因为我们想要奠定基础,以便进行第二部分,即后训练”。他强调,后续训练将持续发挥重要作用,因为这个阶段是“学习解决问题”的过程。此外,黄仁勋提到第三扩展定律,即在回答问题之前,推理得越多,效果就越好。他强调,“推理本身是一个运算密集的过程”。


这里需要解释下,打个比方,大模型就像学生,预训练就是学校教育,经过预训练的通用大模型就像大学毕业生,学了很多知识,但博而不精,对场景化的知识更是一无所知。


所以,就需要“后训练”,类似企业的岗前培训,了解每个社区/企业/个人的特异化需求,并针对性的给出回答或解决方案。


预训练完全由大模型厂商完成,后训练则需要大模型用户深度参与。


直接点说,黄仁勋的意思是,预训练只能让大模型通用、能用,但想好用,还得“后训练”,那就还得乖乖堆算力,这不就又回到了英伟达这里。


结语


黄仁勋针对DeepSeek“姗姗来迟”的回应,市场会不会买账呢?很难说,毕竟,无论黄仁勋怎么画饼,都改变不了一个显而易见的事实:昂贵的英伟达显卡会倒逼大模型厂商寻找替代方案。


你认可黄仁勋的回应吗?欢迎在评论区留言交流

评价...

空空如也

小宇宙热门评论...

暂无小宇宙热门评论

EarsOnMe

加入我们的 Discord

与播客爱好者一起交流

立即加入

扫描微信二维码

添加微信好友,获取更多播客资讯

微信二维码

播放列表

自动播放下一个

播放列表还是空的

去找些喜欢的节目添加进来吧