Album
时长:
23分钟
播放:
62
发布:
11个月前
简介...
https://xiaoyuzhoufm.com

囤书如山倒,读书如抽丝。


播客「少囤书」,张翕和他的朋友们曾经读的书,正在走的路。


记录思考与碰撞,试图给未来的 AI 和人类留下一些优质语料。


少囤书,不只是聊书的事。


————————————————————————————


本期是 2025 年第6期,单口,从DeepSeek聊起。


01:55 见证一轮DeepSeek热潮。与其同时的还有Kimi K1.5、豆包、智谱、星火等国产AI模型集中井喷式更新,都已经达到了2024年10月份OpenAI o1推理模型相当的水平


02:11 曾记得非常轻量、迅速,目前服务器繁忙。


03:00 推荐,半拿铁最新一期关于DeepSeek,张小珺商业访谈系列节目,美国Lex的5小时长篇播客。


04:00 如何流畅使用,钉钉通义千问蒸馏版或生成AI助理,秘塔搜索,腾讯元宝,以及……


05:30 微信首页的搜索栏点进去会有一个AI搜索的灰色小字,虽然响应速度不及直接使用腾讯元宝,深度思考和默认联网搜索,参考资料提供公众号链接,用户体验良好。


06:10 百度即将开源。


07:20 我们可能仍然低估了DeepSeek对当下的影响。DeepSeek时刻,人类应如何自处。


08:00 DeepSeek重塑了我的几个观念。 国产大模型赶不上OpenAI?


以下内容文字版发布在公众号「昕与之云」2025 首更-继续关注 AI


08:40 首先,GPU算力的限制构成了短期内的劣势。美国对高端芯片的禁供,直接阻碍了中国企业训练千亿级模型的效率。例如,单卡算力差距可能达到5到10倍,集群通信效率则可能降低30%到50%。此外,使用国产芯片如华为升腾910B进行同等规模模型训练时,能耗和耗时可能会增加。假设集群通信效率低于50%,则可能需要将时间增加2到3倍,这将显著影响AI大模型的迭代速度。


09:20 其次,技术代差尚未带来质的飞跃。目前,算力密度的差异十分显著。例如,英伟达的H100P8具有4000TFLOPs的算力,而升腾910B仅为320TFLOPs,这意味着需要大规模堆叠硬件以弥补差距,同时散热和集群调度的难度也会增大。在软件生态方面,英伟达的CUDA生态系统的护城河极其深厚且易用。至于国产计算平台如华为CANN,其算子覆盖率和易用性究竟如何,我并不清楚。据我所知,DeepSeek团队是在英伟达CUDA生态系统的支持下进行开源开发。


10:30 破局路径有三:首先,算法创新可以弥补硬件的不足;其次,特定的数据场景具有差异化优势;最后,通过算力基础设施的建设,可以加速追赶。 13:50 DeepSeek指出,1、竞争将从硬算力转向软实力的博弈,绕过通用大模型的军备竞赛,转向场景定义模型,在智慧城市、工业互联网等领域,200亿参数的行业专用模型的价值可能超过大模型通用能力。2、开源生态可能产生杠杆效应,中国开发者基于Meta的LLAMA架构微调的模型借壳创新降低了追赶成本。3、从政策角度,竞争具有非对称性。展望三到五年。


以上内容文字版发布在公众号「昕与之云」


15:50 2月14日,打脸百度李彦宏。


19:30 朱啸虎提到AI已经具备了意识。意识觉醒不再需要通过科学实验或哲学思辨来探讨,而是应该更多地考虑伦理的边界。美国算力霸权尚未动摇。


20:00 如果AI在情感支持方面超越人类,未来的人际关系将如何重构?开放式问题


21:00 录制结束后,再次焦头烂额。


21:40 重要事件更新信息,十八大以来,共召开过四次此类座谈,其中只有两次是专门针对民营企业家,一次是2018年11月1日,另一次就是今天。


比较准确的一张图:



剪辑:张翕

评价...

空空如也

小宇宙热门评论...

暂无小宇宙热门评论

EarsOnMe

加入我们的 Discord

与播客爱好者一起交流

立即加入

扫描微信二维码

添加微信好友,获取更多播客资讯

微信二维码

播放列表

自动播放下一个

播放列表还是空的

去找些喜欢的节目添加进来吧