Album
时长:
3分钟
播放:
19
发布:
1年前
主播...
简介...
https://xiaoyuzhoufm.com

所以科研理论我们接着去看


从物理学上来讲


就是从实验观察到唯象理论


再到了一种框架


唯象理论就是没有经过严谨论证的


这个总结


实验总结


比如说天象观测


当时大家觉得所有的这个地球是中心


而且呢所有的轨道都是圆的


后来发现不对


这玩意怎么都对不上


有些行星的轨迹


他们就套大圆套小圆


套一堆模型


这个模型就非常复杂


这个就不对了


后来开普勒说


那有没有可能是椭圆的


后来用椭圆的这个事


能解释开普勒三定律


但是开普勒这个人的数学不好


所以他这个后面


他找不到精确的理论框架


牛顿出来以后


牛顿数学非常好


发明了微积分


发明了万有引力


然后完美的去解释了开普勒的三定律


这个人工智能也一样


人工智能呢


现在有超大规模的集群计算集群


我们去做大模型的训练


有一个实验


为什么现在这个像李飞飞教授说


大模型都是在企业里面创新


高校里很少


因为高校没有卡


大部分算力都在企业啊


所以现在企业更像是一个


就中国政府说的


这个叫创新的主体是民企


民企啊但是


现在央国企的算力也开始建设起来了


有了这个实验环境


你才能去做这个大模型的训练和创新


然后就发现了一个唯象理论


叫做


上一个时代是


实际上是深度学习的时代


叫AlphaGo这个时代


所以我们发现了强化学习


等等这样的一些实验的理论


这个其实在心理学上叫行为主义


就是


这个下围棋


我这个我下的好


给这个AlphaGo一个奖赏


就是加分


下的不好给你减分


AlphaGo自己跟自己下


这个


AlphaGo就训练出来围棋的这个水平了


其实人也一样


管理学你想一想哎


员工做的好我给他一个奖励


员工做不好就给他扣分对吧


或者罚钱


其实这个都是一个


这个机械化的一种理论


然后那么现在大模型的这个理论


叫尺度定律


我们叫Scaling Law


它要不断的去变大啊


OpenAI就是压住说越大越好


就是就跟我们做菜一样


这个菜里面一共有三个元素


第一个叫算力


第二个叫数据


第三个叫模型的参数


这三个东西越大越好


所以我们说这口锅就是算力


你没有大集群


你根本这个菜都炒不出来


第二个就是你的数


训练数据集得足够大


你学的东西越多


越多元化


他这个仿真世界的


就是学习这个世界的


这个规模就会越好


第三个就是


人脑是有复杂度的


所以大模型也有复杂度


只不过现在人脑复杂度比大模型高


大概100倍


其实也不远了


为什么大家预测


2028年有可能实现通用人工智能


就因为到那个时候


大模型按照尺度定律来说


再膨胀两个数量级


就达到人脑的复杂度


那是不是我们AI就AGI就出现了


就强人工智能就出现了


但是这个都是实验总结的就一个趋势性的东西


那我们特别期待说


后面有这个理论框架出来


真正指导我们未来几十年的发展


你像量子力学狭义相对论指导100年了


现在这些红利还没有释放完


非常有价值

评价...

空空如也

小宇宙热门评论...

暂无小宇宙热门评论

EarsOnMe

加入我们的 Discord

与播客爱好者一起交流

立即加入

扫描微信二维码

添加微信好友,获取更多播客资讯

微信二维码

播放列表

自动播放下一个

播放列表还是空的

去找些喜欢的节目添加进来吧