评分
暂无评分
0人评价
5星
0%
4星
0%
3星
0%
2星
0%
1星
0%
AI智能总结...
AI 正在思考中...
本集内容尚未生成 AI 总结
简介...
主播...

一啸

0xSaito

归归-Anson
评价...
空空如也
小宇宙热门评论...

GoneB0y
3个月前
北京
11
23:14 func-call或者说tool-use本质还是在做落域选择,所以颗粒度很重要。实践中10个左右的func的选择基本能保证准确率可用,大于20后质量下降就会很厉害。有一个trick就是先做大的意图识别,然后按落域动态注册func到sys-prompt中。这样会保证相对精准。但如果同一个domain下有很多相似func,也会容易混淆。另外,LLM还会解决一个槽位(slot)动态收集的任务,这个在传统AI应用里是比较机械实现的。

RookieStar
3个月前
上海
7
02:51 讲到AI造概念,有个不同视角的看法:过去软件工程领域主要面向机器,所以相关概念会专业又精准;现在AI时代机器越来越像人,相关概念更容易破圈,推广到更大范围的受众。人,我们自己都没有研究清楚,自然相关的概念辨析难度就上来了

Magodo
2个月前
澳大利亚
4
感觉说了半天没啥干货。。。
方进
3个月前
江苏
2
39:03 这是我听过的最好的关于 agent 的workflow和自主规划的说明所以说呢,各有千秋,也算不上高级不高级,取决于你的目标,你想要的是确定性的结果,还是那种你能给你带来surprise的那种

Ian言
2个月前
北京
2
关于Agent自动化问题,也欢迎收听这期节目https://www.xiaoyuzhoufm.com/episode/67d41ac6e924d4525aa400ac

杠杠开始
1个月前
美国
0
05:35 男嘉是山西人喽
ll_3ZN1
3个月前
北京
0
05:45 无语。。。。
古一_s29U
3个月前
未知
0
Mcp好像跟模型是否有function call能力没有关系吧
musi_ubrP
3个月前
浙江
0
32:17 workflow也不能很好的解决稳定性,只要你其中的一环依赖于LLM的输出,举个例子,你让LLM给你输出一个yaml格式,但是它给你返回了一个json代码块,这就是意料之外的输出,你可以通过代码判断出现异常进行重试,但这并不能证明通过workflow可以解决LLM的幻觉

stewart831
3个月前
广东
0
53:41 这段挺有意思,被看见从而被感知从而自己才得到了老板的上帝视角,才能觉得你真的多了个能干活的小弟😂,那这个智能体才能被人化
德式锅包肉
3个月前
德国
0
当llm需要大力出奇迹的时候,agent就倾向小而美。当llm开始卷性价比了,agent就开始大力出奇迹了。

TerryZhou
3个月前
广东
0
48:29 燃烧更多token。稍微再泛化一些,换个角度:其实人类一直在找能更大规模动用能源的手段。同样一条信息,从纸张记录,到搜索集群,再到万卡大模型,用能源换时间/效率。从走路到马车到汽车,都是产生位移,用能源换时间/效率。
stonesun
2个月前
北京
0
质量确实非常高
NgShawn
2个月前
广东
0
对agent的认知不透彻,甚至对manus的评价也只针对它本身,没有做一点市场调研,相比竞品2美元居然还觉得贵。
meowooof
2个月前
北京
0
嘉宾确实是程序员,但是仅仅是程序员