所以科研理论我们接着去看
从物理学上来讲
就是从实验观察到唯象理论
再到了一种框架
唯象理论就是没有经过严谨论证的
这个总结
实验总结
比如说天象观测
当时大家觉得所有的这个地球是中心
而且呢所有的轨道都是圆的
后来发现不对
这玩意怎么都对不上
有些行星的轨迹
他们就套大圆套小圆
套一堆模型
这个模型就非常复杂
这个就不对了
后来开普勒说
那有没有可能是椭圆的
后来用椭圆的这个事
能解释开普勒三定律
但是开普勒这个人的数学不好
所以他这个后面
他找不到精确的理论框架
牛顿出来以后
牛顿数学非常好
发明了微积分
发明了万有引力
然后完美的去解释了开普勒的三定律
这个人工智能也一样
人工智能呢
现在有超大规模的集群计算集群
我们去做大模型的训练
有一个实验
为什么现在这个像李飞飞教授说
大模型都是在企业里面创新
高校里很少
因为高校没有卡
大部分算力都在企业啊
所以现在企业更像是一个
就中国政府说的
这个叫创新的主体是民企
民企啊但是
现在央国企的算力也开始建设起来了
有了这个实验环境
你才能去做这个大模型的训练和创新
然后就发现了一个唯象理论
叫做
上一个时代是
实际上是深度学习的时代
叫AlphaGo这个时代
所以我们发现了强化学习
等等这样的一些实验的理论
这个其实在心理学上叫行为主义
就是
这个下围棋
我这个我下的好
给这个AlphaGo一个奖赏
就是加分
下的不好给你减分
AlphaGo自己跟自己下
这个
AlphaGo就训练出来围棋的这个水平了
其实人也一样
管理学你想一想哎
员工做的好我给他一个奖励
员工做不好就给他扣分对吧
或者罚钱
其实这个都是一个
这个机械化的一种理论
然后那么现在大模型的这个理论
叫尺度定律
我们叫Scaling Law
它要不断的去变大啊
OpenAI就是压住说越大越好
就是就跟我们做菜一样
这个菜里面一共有三个元素
第一个叫算力
第二个叫数据
第三个叫模型的参数
这三个东西越大越好
所以我们说这口锅就是算力
你没有大集群
你根本这个菜都炒不出来
第二个就是你的数
训练数据集得足够大
你学的东西越多
越多元化
他这个仿真世界的
就是学习这个世界的
这个规模就会越好
第三个就是
人脑是有复杂度的
所以大模型也有复杂度
只不过现在人脑复杂度比大模型高
大概100倍
其实也不远了
为什么大家预测
2028年有可能实现通用人工智能
就因为到那个时候
大模型按照尺度定律来说
再膨胀两个数量级
就达到人脑的复杂度
那是不是我们AI就AGI就出现了
就强人工智能就出现了
但是这个都是实验总结的就一个趋势性的东西
那我们特别期待说
后面有这个理论框架出来
真正指导我们未来几十年的发展
你像量子力学狭义相对论指导100年了
现在这些红利还没有释放完
非常有价值
空空如也
暂无小宇宙热门评论