Album
时长:
49分钟
播放:
6,222
发布:
1年前
简介...
https://xiaoyuzhoufm.com

我们一直在关注国外的一些 AI 产品,从大模型到应用层莫不如此,今天我们决定好好讨论一下国产大模型产品 Kimi。Kimi 的200万上下文实在太炸裂了,这么大的 “内存” 能不能改变 AI 应用开发生态?又是否会逐渐淘汰现在主流的 RAG 技术栈呢?除了一系列的技术疑问之外,还有产品、商业、估值等等,都值得我们去认真了解一下这个国产大模型领域的 “当红炸子鸡”。 如果大家有更多关于 Kimi 的使用经验和体验,记得在我们评论区分享。


(本期节目没有收钱🥹🥹🥹)


欢迎收听本期节目,更多内容信息和时间线参考下文的硬地笔记。


本期 Sponsors


Special Sponsor: Podwise.ai 👑



硬地笔记


00:00:04 Kimi的200万上下文窗口:全球领先的差异化优势


00:01:59 长上下文在应用开发中的优势


00:10:28 大模型上下文复杂性与训练计算复杂度


00:14:10 Kimi的联网功能令人惊叹


00:17:09 Kimi的爆火:超出预期的体验和2C路线的优势


00:20:51 大模型在B端的落地场景有限,2C 或为更好的选择


00:25:45 C端验证,B端落地的AI产品发展路径


00:28:44 Kimi融资背后的投资关系与组织挑战


00:32:37 RAG技术:检索增强与外部知识加载


00:41:04 大模型与检索式生成技术的互补关系


00:43:33 Kimi估值25亿美金,AI公司估值溢价明显


00:47:03 中国AI巨头之争:本土市场利弊与全球化挑战


硬地新知



  • AGI: AGI是人工智能(Artificial General Intelligence)的缩写,指的是具有与人类智能相等或超过的智能水平的人工智能系统。AGI具有广泛的学习能力和适应能力,能够在各种复杂任务上表现优秀。

  • ARR: ARR是Annual Recurring Revenue的缩写,指的是一年内重复发生的收入。在讨论企业的经济情况或者估值时,ARR是一个重要指标,可以帮助衡量企业的稳定性和增长潜力。

  • RAG: RAG是Retrieval-Augmented Generation的缩写,是一种基于检索式生成的语言模型。RAG模型将检索和生成两个任务结合起来,能够根据检索到的信息生成相应的文本,提高文本生成的准确性和可控性。

  • Transformer XL: Transformer XL是一种基于Transformer架构的模型,专门用于处理超长上下文的任务。Transformer XL通过引入相对位置编码和循环机制,能够更好地处理长文本序列,提高模型在超长上下文任务中的表现。

  • 二次方关系: 二次方关系是数学中的一个重要概念,指的是两个变量之间的关系可以表示为一个二次方程。二次方关系经常出现在科学、工程等领域的建模和分析中,对于研究变量之间的复杂关系非常有用。


欢迎关注我们


评价...

空空如也

小宇宙热门评论...

暂无小宇宙热门评论

EarsOnMe

加入我们的 Discord

与播客爱好者一起交流

立即加入

扫描微信二维码

添加微信好友,获取更多播客资讯

微信二维码

播放列表

自动播放下一个

播放列表还是空的

去找些喜欢的节目添加进来吧