第230集 为什么AI 必须做实验?
田丰说

第230集 为什么AI 必须做实验?

3分钟 19 1年前
节目简介
来源:小宇宙

所以科研理论我们接着去看


从物理学上来讲


就是从实验观察到唯象理论


再到了一种框架


唯象理论就是没有经过严谨论证的


这个总结


实验总结


比如说天象观测


当时大家觉得所有的这个地球是中心


而且呢所有的轨道都是圆的


后来发现不对


这玩意怎么都对不上


有些行星的轨迹


他们就套大圆套小圆


套一堆模型


这个模型就非常复杂


这个就不对了


后来开普勒说


那有没有可能是椭圆的


后来用椭圆的这个事


能解释开普勒三定律


但是开普勒这个人的数学不好


所以他这个后面


他找不到精确的理论框架


牛顿出来以后


牛顿数学非常好


发明了微积分


发明了万有引力


然后完美的去解释了开普勒的三定律


这个人工智能也一样


人工智能呢


现在有超大规模的集群计算集群


我们去做大模型的训练


有一个实验


为什么现在这个像李飞飞教授说


大模型都是在企业里面创新


高校里很少


因为高校没有卡


大部分算力都在企业啊


所以现在企业更像是一个


就中国政府说的


这个叫创新的主体是民企


民企啊但是


现在央国企的算力也开始建设起来了


有了这个实验环境


你才能去做这个大模型的训练和创新


然后就发现了一个唯象理论


叫做


上一个时代是


实际上是深度学习的时代


叫AlphaGo这个时代


所以我们发现了强化学习


等等这样的一些实验的理论


这个其实在心理学上叫行为主义


就是


这个下围棋


我这个我下的好


给这个AlphaGo一个奖赏


就是加分


下的不好给你减分


AlphaGo自己跟自己下


这个


AlphaGo就训练出来围棋的这个水平了


其实人也一样


管理学你想一想哎


员工做的好我给他一个奖励


员工做不好就给他扣分对吧


或者罚钱


其实这个都是一个


这个机械化的一种理论


然后那么现在大模型的这个理论


叫尺度定律


我们叫Scaling Law


它要不断的去变大啊


OpenAI就是压住说越大越好


就是就跟我们做菜一样


这个菜里面一共有三个元素


第一个叫算力


第二个叫数据


第三个叫模型的参数


这三个东西越大越好


所以我们说这口锅就是算力


你没有大集群


你根本这个菜都炒不出来


第二个就是你的数


训练数据集得足够大


你学的东西越多


越多元化


他这个仿真世界的


就是学习这个世界的


这个规模就会越好


第三个就是


人脑是有复杂度的


所以大模型也有复杂度


只不过现在人脑复杂度比大模型高


大概100倍


其实也不远了


为什么大家预测


2028年有可能实现通用人工智能


就因为到那个时候


大模型按照尺度定律来说


再膨胀两个数量级


就达到人脑的复杂度


那是不是我们AI就AGI就出现了


就强人工智能就出现了


但是这个都是实验总结的就一个趋势性的东西


那我们特别期待说


后面有这个理论框架出来


真正指导我们未来几十年的发展


你像量子力学狭义相对论指导100年了


现在这些红利还没有释放完


非常有价值

加入我们的 Discord

与播客爱好者一起交流

立即加入

扫描微信二维码

添加微信好友,获取更多播客资讯

微信二维码

播放列表

自动播放下一个

播放列表还是空的

去找些喜欢的节目添加进来吧