9月20日,OpenAI研究科学家、o1大模型推理研究基础贡献者Hyung Won Chung,在x社媒上分享了MIT演讲内容。其中核心观点是通往AGI通用人工智能唯一可行的方法是激励模型,促进AI的通用技能出现,本视频为下集。

发现四,AI的进步与增加数据、增加计算能力息息相关。数据显示,计算能力大约每5年提高10倍。当前大模型训练的误区是,科研团队试图让AI学会像人类一样思考,但问题是我们自己并不知道大脑神经元层面是如何思考的。“机器应该有更多的自主性来选择如何学习,而不是被限制在人类理解的数学语言和结构中。” o1另一位核心研究者Noam Brown也强调:“训练和推理对模型性能提升作用相似,但后者成本更低,便宜1000亿倍”

发现五,AI算力硬件进步呈指数级增长,AI软件和算法需要跟上。一个系统或算法过于依赖人为设定的规则和结构,它很难适应新的、未预见的情况和数据。人教AI的结果就是当面对更大规模或更复杂的问题时,AI扩展能力会大大受限。“AI的进步与减少人为架构密切相关,在扩展一个系统或模型的过程中,我们需要找出那些阻碍扩展的假设或限制条件,比如算法、数据处理流程、模型结构等。”
总体来看,对于大模型研发,强化学习RL难度比Pretrain更高,寻找激励信号的过程非常难,而且特别“吃”算力。GPT4大家基本会做了,但是自强化学习RL除了头部的几家,还有比较大的挑战!另一个瓜,Hyung Won Chung是MIT的可再生能源和能源系统专业博士,曾经在谷歌大脑担任大语言模型预训练师。
收看上集,请关注《田丰说》,每天3分钟,掌握全球AI大事件,本视频由商汤“如影”数字人APP生成。家人们的点赞、收藏、分享,是对田老师录课的最大支持!
空空如也
暂无小宇宙热门评论