《直觉泵和其他思考工具》 00 引言 什么是直觉泵

享誉世界的哲学泰斗丹尼尔·丹尼特,融通计算机科学、心理学、神经科学、语言学、人工智能,倾囊相授他一生至今所搜集的各种好用的思考工具。这本书诞生于大学新生的课堂,力图做到“人人能懂”。 使用大量方便的、辅助性的思考工具,去拓展想象力、保持专注力,让我们妥当、优雅地思考真正的难题。利用各种思考工具,让你拨开各种思想的层层迷雾,你会发现,那么多明摆着的观点其实根本就不是那么“明摆着”的。 达尔文的进化论不仅只是一种理论,也可以打造成直觉泵等思考利器,破除种种事后追溯的思维陋习。自然选择作为一种思维方式,也日益融入计算机算法的设计中,在本书中你还将掌握有关计算机能力的7个秘密,把算法和程序当作思考工具。 “直觉泵”是很有用的思考工具,作为一种思想实验,一个好的直觉泵比任何一种论证和分析都更为有力。这本书不仅带你去检验不合格的直觉泵,也让你理解好的直觉泵,更教你如何应用和制作直觉泵。 丹尼尔·丹尼特(Daniel C. Dennett) ● 世界著名哲学家、认知科学家,美国艺术与科学院院士,塔夫茨大学讲席教授。2001年,荣获被誉为“心灵哲学诺贝尔奖”的让·尼科奖。 ●2016年获评全球50位最具影响力的哲学家。“人工智能之父”马文·明斯基称赞他为“下一个伯特兰·罗素”。 ● 2010年当选圣塔菲研究所首届最为尊崇的访问学者席位——米勒学者,跨学科开展认知科学和进化生物学研究。 ● 与理查德·道金斯、萨姆·哈里斯、克里斯多夫·希钦斯并称“新无神论四大骑士”。

33分钟
96
8个月前

《超级智能—路线图、危险性与应对策略》 04 智能大爆发的动力学

延伸阅读4: 智能大爆发的动力学分析 我们可以把智能变化率写成应用于系统的最优化力与系统的反抗度之间的比率: 于系统的最优化力的量是系统本身贡献的最优化力以及其他最优化力的总和。例如,一个种子人工智能可能会通过将自身努力和人类项目组的努力结合起来而得到提高,并且可以依靠更广泛的全球研究人员的共同体在半导体工业、计算机科学和相关领域取得的持续进步: O=O 系 统 +O 工 程 +O 世 界 种子人工智能开始时的认知能力十分有限。因此,一开始O 系 统 很小,而O 工 程 和O 世 界 如何呢?在某些情况下单一项目比世界上其他所有项目有更多的相关能力,例如曼哈顿项目就在洛斯阿拉莫斯国家实验室聚集了世界上最好的物理学家来研制原子弹。更为普遍的是,任何一个项目只包含了世界上相关研究能力的很小一部分。但即便是当外部的世界比一个研究项目有更多相关的研究能力时,O 工 程 仍然可能超过O 世 界 ,因为很多外部世界的能力并没有集中于特定系统中的问题。如果一个项目开始看起来很有前景,也就是当一个系统超过人类基本水平之后而不是之前,它就可能会吸收更多的投资用以增加O 工 程 。如果工程基本是公开的,那么随着其进展就将吸引更多人参与机器智能的工程以及多样化能力的竞争,O 世 界 也可能会上升。因此,在过渡阶段,随着系统能力的增加,应用于改善认知系统的总的最优化力很有可能得到提升。 随着系统能力的增长,可能会到达一个点,即系统本身产生的最优化力开始主导从外部应用于系统的最优化力(穿过所有重要的改进层面): O系 统 >O工 程 +O世 界 这一跨界点之所以重要,是因为若超越了这一点,进一步提高系统能力会在很大程度上造成应用于改善系统的总体最优化力的增加。我们会因此进入强烈的递归性自我改良系统。这会导致一个相当广范围内的不同形状反抗度曲线下的系统能力的爆发性增长。 为了进一步说明,首先考虑一个反抗度恒定的情景,由此人工智能增长率取决于所应用的最优化力。假定所有应用的最优化力来自人工智能本身,且人工智能将其所有的智能用于扩大其自身智能,也就是O体 系 = I,我们可以得出: 解这个简单的微分方程,从而得出指数函数: 但是反抗度恒定是一个相当特殊的情况。由于前面章节提到一个或更多因素的作用,反抗度很可能会围绕人类基本水平下降,并且在跨界点和一定距离以外保持较低的水平(可能直到系统最终接近基本物理极限)。例如,假设在系统能够极大地促进自我设计并且导致每18个月能力便会倍增前,应用于系统的最优化力大致恒定(例如,O工 程 +O世 界 ≈C)。(这可能大致与摩尔定律下软件进步的速度曲线一致。) 如果是通过近乎不变的最优化力得到了速度提升,就会使反抗度下降成为系统力的倒数: 如果反抗度沿着双曲线模式持续下降,那么当人工智能到达跨界点时,应用于提高人工智能的全部最优化力就会翻倍,我们能够得出: 下一次倍增发生在7.5个月后。在17.9个月内,系统的能力增长了上千倍,于是便获得了速度超级智能(图4–3)。 这一特殊的增长轨迹在t=18个月时有一个正奇点。事实上,随着系统开始接近信息处理的物理极限,反抗度保持不变的假设将不再成立。 这两种情况只是用于解释说明,也可能会出现许多其他轨迹,它们取决于反抗度曲线的形状。我们很容易就可以断言设置在跨界点周围的强反馈循环会强烈地趋向于使爆发比其本来可能的情况更快。

40分钟
49
8个月前

《超级智能—路线图、危险性与应对策略》 02 通往超级智能之路

延伸阅读3: 进化概述 人类智能的进化要经历很多重要过程,但不是每一步都与正试图使机器智能进化的人体工程师有关。地球上的进化选择中只有一小部分是为了智能选择。具体来说,人体工程师希望攻克的难题就是全部进化选择中的这一小部分。例如,由于计算机可以依靠电力运行,所以我们也不必为了创造智能机器而改造细胞的分子结构来获得能量—而这种新陈代谢路径上的细胞进化,可能已经用掉了地球进化历史中选择能量的一大部分。 有人可能会认为,人工智能的关键是神经系统结构,这个神经系统在10亿年前即已形成。如果根据这个时间节点,那么相关“实验”的数量便可以大大减少。因为现在地球上有4×10^30~6×10^30个原核生物,但只有10^19只昆虫,不到10^10个人(人类开始耕作之前的人口远没达到这个数量级)。这些数字还不算太惊人。 然而,进化算法(evolutionary algorithms)不仅要求筛选所需的变量,还需要评估变量的适应度函数(fitness function),而这种算法所需要的计算机组件是最贵的。人工智能进化对应的适应度函数需要模拟神经系统、习得新知识并且拥有评价适应度的认知能力。因此,我们最好不要关注有复杂神经的有机体的原始数量,而是要关注我们模拟进化适应度函数所需的生物机体中的神经元数量。昆虫的脑容量差别很大,体积较大的昆虫和社会性昆虫的大脑相对更大:蜜蜂的大脑有10^6个神经元,果蝇的大脑有10^5个神经元,蚂蚁则介于二者之间,有25万个神经元。大部分较小的昆虫只有几千个神经元。如果我们适当高估研究对象的神经元数量,假设有10^19个果蝇,每个果蝇有10^5个神经元,那么地球上总计就有10^24个神经元。水生桡足类动物、鸟类、爬虫类、哺乳类动物的神经元数量是10^25。(在农业时代之前,有不到10^7个人,每个人有10^11个神经元,共计10^18个人类神经元,但是人类每个神经元的突触数量则比其他生物要多得多。) 模拟一个神经元的计算成本取决于模拟的细节。即使是一个非常简单的神经元模型,要模拟一个神经元(在真实时间里)每秒钟也要进行1 000次浮点运算(1 000FLOPS)。霍奇金–赫胥黎(Hodgkin-Huxley)生物电模型需要1 200 000FLOPS。更加细致的多隔室模型可能要多3~4个数量级,然而抽象神经元系统更高级的模型则可以从简单模型里减掉2~3个数量级。如果模拟10亿年进化产生的10^25个神经元,并且我们让计算机运算一年,就要求10^31~10^44FLOPS。中国天河2号(截至2013年9月)是世界上最强大的超级计算机,但也仅能达3.39×10^16 FLOPS。近几十年,商用计算机用了6.7年才提高了一个数量级的运算能力,就算摩尔定律再继续适用一个世纪,也不足以弥补其中的差距。即使用更好的硬件,运行更长时间,也只能多支持几个数量级的数据运算。 另一方面,这也是保守的数字。进化在没有目的的情况下,实现了人类智能。换句话说,自然机体适应度函数不只是为了智能和其前体而选择。即使是有着能处理更高级信息并且总是从中受益的有机体的环境可能都不会选择智能,因为智能的提高需要付出很大代价,比如更高的能量消耗和更长的成熟周期。在这种情况下,成本大于利益。而险恶的环境也会降低智能的价值:个体的生命越短,能用来提高学习能力的时间就越少。降低的智能选择压力减缓了智能提升革新的传播速度,以及依赖此革新的其他选择的机会。如前面所提到的,进化会将选择权力分散在与智能无关的很多特征上,比如免疫系统与寄生物之间竞争的共同进化的红皇后效应(Red Queen Effect)。进化继续浪费着资源去产生致命的突变,并且没有利用不同突变效果带来的数据相似性的优势。这些都是自然选择中效率低下的现象。当工程师使用进化算法开发智能软件时,则可以相对容易地回避这种低效现象。 消除上述低效现象的做法能将早先计算的10^31~10^44FLOPS降低很多个数量级,这似乎是有可能的。不幸的是,要想获悉究竟是多少个数量级则比较困难,甚至做个大体的估算也不太容易。就我们所知,提升效率能够节约5个、10个或25个数量级。

76分钟
34
9个月前

《超越百岁-长寿的科学与艺术》 00 导言

著名的长寿专家彼得·阿提亚博士也是一名马拉松游泳运动员,他曾在三十多岁的时候横渡卡特琳娜海峡。但他的健康状况居然也出现了异常,有早逝于心脏病的风险。这一发现促使他开始探索长寿之道:我们如何以及为何会死亡,我们如何才能延缓甚至预防那些导致大多数人死亡的慢性病,例如心脏病、癌症、阿尔茨海默病与2型糖尿病。 在这份旨在促进长寿与美好生活的颠覆性宣言中,阿提亚解释了这段旅程如何使他重新思考了对医疗保健的态度。虽然主流医学取得了很多成就,但在防治这些与年龄有关的疾病方面却进展甚微。往往它干预的时机太晚而无法提供及时的帮助,并以损害健康年限或生活质量为代价延长寿命。阿提亚认为,我们必须用个性化、积极主动的长寿策略来取代这种过时的框架,也就是一种我们应该立即采取行动而非等待的策略。这不是“生物黑客”,这是一种以科学为基础的战略方法,在延长寿命的同时改善我们的身体、认知和情绪健康。阿提亚的目标不是告诉你该做什么,而是更多地帮助你学会如何思考长期健康,以便为你个人制定最佳计划。在这本书中,读者将会发现: 为什么在年度体检中你的血液检测和胆固醇测试结果显示 “正常”,但你可能仍然不健康——因为平均值并不等同于最佳状态。 为什么运动是最强效的长寿“药”,以及如何开始为“百岁老人十项全能”进行训练? 为什么你应该忘记“节食”,转而关注营养生物化学,利用技术和数据来个性化你的饮食模式? 为什么仅追求身体健康和长寿而忽视情感健康可能带来最终的灾祸? 寿命与健康的可塑性远比我们想象的要大。我们的命运不是一成不变的,有了正确的路线图,你就可以为你的人生规划一条不同的道路,让你比你的基因更长寿,让每一个十年都比前一个十年更好。 彼得·阿提亚(Peter Attia),斯坦福大学医学博士,著名健康专家,长寿应用科学医疗研究机构Attia Medical创始人。他拥有约翰斯·霍普金斯医院五年的外科临床经验,曾获“年度住院医师”等重要奖项,师从史蒂芬·隆森伯格医生,在美国国立卫生研究院国家癌症研究所致力于肿瘤学与癌症的免疫疗法研究,离开医院后他曾加入麦肯锡公司。他曾在TED发表关于糖尿病危机的演讲,还长期主持一个热门的大众播客The Drive,关注肥胖、断食、生酮、阿尔茨海默病、癌症、心理健康、睡眠等主题,希望提高人们对长寿和健康改善的认知,拥有大量忠实粉丝。他曾和三获美国国家科学作家奖的加里·陶布斯共同创立了非营利组织“营养科学计划”并担任主席。同时,他自己还是一位耐力极好的运动员,在超长距离自行车运动、马拉松游泳、力量训练中一直保持高水平的表现。 比尔·吉福德(Bill Gifford),资深记者,《纽约时报》畅销书《永葆青春》的作者,美国发行量最大的户外杂志Outside的特约编辑,曾为许多出版物撰写过关于科学、体育和健身的文章。

5分钟
74
9个月前

《当代中国的中央地方关系》00 出版前言

本书主要考察中央地方关系在当代中国的变迁过程及其与城镇化和社会发展方面的联系。在大量经验调查和理论研究的基础上,本书指出,二十世纪八十年代的财政包干制和九十年代的分税制是理解中央地方关系变迁的关键要素。财政包干制为地方政府“大办企业”和快速的地方工业化提供了激励,而分税制则促使地方政府发生了由“经营企业”到“经营土地”和“经营城市”的转向。本书从土地指标获取和城镇化模式两个方面分析了中央地方关系的变化对地方政府行为的深刻影响,为我们理解当代中国的经济社会发展提供了一种较有洞察力的视角。 周飞舟,1968年生,北京大学社会学系教授,主要从事中央地方关系、地方政府行为与城镇化方面的研究,著有《制度变迁与农村工业化》、《以利为利:财政关系与地方政府行为》、《土地制度改革与转变发展方式》等书,并于《中国社会科学》、《社会学研究》、《社会》等学术刊物发表多篇论文。 谭明智,1987年生,现任职于国土资源部土地整治中心。北京大学社会学系硕士研究生毕业,本科就读于浙江大学社会学系。主要从事土地制度和农村问题方面的研究,曾参与多项北京大学社会学系及国务院发展研究中心组织的课题项目。

6分钟
47
9个月前

《超级智能—路线图、危险性与应对策略》 01 人工智能:昨日成就与今日现状

延伸阅读1: 一个理想的贝叶斯代理程序 一个理想的贝叶斯代理程序最初都会设定“先验概率分布”(Prior Probability Distribution),即先把概率赋给各个“可能世界”。但这种先验概率存在着归纳偏置,即认为越是简单的可能世界,越具备较高的概率。[我们可以将可能世界的简单性问题用一个正式的术语来进行描述,即“柯尔莫哥洛夫复杂性”(Kolmogorov complexity),也就是完整描述一个世界所需要的计算机程序的最短长度。]先验概率还包含了编程者希望赋予程序的所有背景知识。 当代理程序借助传感器接收到新的信息后,它会遵循贝叶斯法则对新信息的分布进行条件化,从而更新已有的概率分布。条件化是一种数学运算,如果先验概率与新的概率不一致,那么数学运算就会对原有的可能世界中的概率进行重新设置。运算的结果就是“后验概率分布”(Posterior Probability Distribution),当然在下一轮运算开始前,这种后验概率又会被视为先验概率。代理程序能够通过观察实现概率聚合,将概率集中在几个不断缩小的与证据相匹配的可能世界中,而在这几个领域中,越简单的那些便有着越高的概率。 打个比方,我们可以把概率视为一大张纸上面的沙子。我们在这张纸上画出大小不同的区域,每一个区域都对应一个可能世界,范围越大的区域对应越简单的可能世界。再想象一下铺在整张纸上的沙子厚度相同:这就是我们的先验概率分布。每当观察者划掉一个区域时,我们就把该区域内的沙子拿走,然后平均铺到其他剩余区域内。整张纸上的沙子总量并没有发生变化,只是随着观察证据的积累,沙子越来越集中到几个较少的区域内。这就是贝叶斯学习的最单纯的模式。(要想计算出一个假设的概率,我们只需要测量出纸上已有领域中的沙子的数量就可以了,这与该假设在其中成立的可能世界相应。) 至此,我们已经定义了一个学习规则。对于代理程序而言,我们还需要一个决策规则。为了实现这一目的,我们给代理程序赋予一个效用函数,即给每个可能世界分配一个数字。具体数字代表着根据代理程序基本偏好设定的可能世界中的渴望度。现在,代理程序在每一步运行中都会选择有着最高期望效用的操作。(要寻找出最高期望效用的操作,代理程序可以先把所有可能的操作都罗列出来,然后计算出特定操作的条件概率分布,这种概率分布是通过观察刚结束的操作结果来不断调整当前的概率分布的。最终,代理程序能够计算出操作的期望值,这个期望值是每个可能世界与被赋予操作程序之可能世界的条件化概率的乘积之和。) 学习规则和决策规则一起构成了代理程序的最优概念。最优概念已经被广泛应用到人工智能、认识论、科学哲学、经济学以及统计学上。但从现实层面上看,因为所需要执行的运算是难以实现的,因而很难设置这样的代理程序。所有的尝试都死在“组合爆炸”这个问题上,我们之前讨论的GOFAI便是如此。为什么会这样?只消考虑一下所有可能世界的任何一个微小子集即可:那些构成一个计算机显示器的子集都陷入无止境的真空状态。一个显示器有1 000×1 000个像素,每一个像素的状态都有开和关两种。即使是这种可能世界的子集,数量仍旧是巨大的: 2 1 0 0 0 ×1000种可能的显示状态,这个计算量比观察宇宙所需的计算量都大。我们连可能世界的子集都无法列举出来,更别说要去计算那些更精巧的独立世界了。 虽然在物理上难以实现,最优概念依旧在理论上备受关注。这个概念给我们提供了一种标准,使我们能够判断启发式的近似算法,也让我们可以在有些时候推理出特定条件下的最优代理程序会做些什么。我们会在第十二章谈到一些人工代理程序的最优概念的替代路径。 延伸阅读2: 2010年美国股市的“闪电崩盘” 2010年5月6日下午时,对欧债危机的担忧已经造成了美国股票市场下跌4%。下午2点32分,一个大卖家(共同基金)开始启动自动卖出程序出售迷你标普500指数期货(E–Mini S&P500)合约,其执行率与分钟级别的市场流动性相挂钩。这些合约被执行自动程序的高频交易商买入,高频交易商借助自动程序迅速将自己买进的合约转卖给其他交易商。由于基本买方买盘不足,E–Mini合约开始在高频交易商之间不断买进卖出,使E–Mini合约成了烫手山芋而被不断转手,进而迅速拉升了合约交易量,而合约交易量的上升被自动卖出程序解读为市场流动性增强的信号,自动卖出程序在这一信号的刺激下加速抛售合约,最终导致市场螺旋式下跌。当市场运行到某个点时,高频交易商开始离场,买方流动性迅速枯竭,价格进一步下跌。下午2点45分,不断下跌的价格触发了自动交易系统中的跌穿断路点,中断了E–Mini合约交易。5秒钟之后,交易被重新启动,价格系统开始恢复稳定并开始补救损失。但就是在这短短的几秒钟之内,数以万亿计的美元被吸出市场,这种外溢效应导致大量的单个交易以非常不合理的价格成交,有的是1美分,有的则是10万美元。当天闭市后,证交所代表和监管机构召开会议并设定了交易取消的认定标准,宣布交易价格低于危机前交易价格60%的交易属于无效交易。此类交易被明确认定为错单是在现行交易规则下的一种补救措施。 在这里重复这一插曲有些离题,因为“闪电崩盘”时所应用的计算机程序本质上不算是一般或高级别的人工智能,并且这种计算机程序制造出的危险也完全不同于我们在本书后面要讲到的超级智能机器所带来的危险。但是我们能从这类事件中学到经验。其中一个教训就是独立简单程序的互动会造成复杂甚至是不可预期的后果,就像是自动卖出程序和高频交易程序在“闪电崩盘”中所体现出来的那样。给一个系统引入新的要素可能会引起系统性的危机,但风险并不是明显可见的,只有出现明显错误时风险才会被发现,而有时即便出现了明显的错误,风险也不见得能被意识到。 另一个教训就是聪明的专家在给一个程序下指令时,即便这个程序的假设看起来很明白也很合理,但当这个程序在出现预料之外的情况时依旧雷打不动地遵循逻辑一致性来运行先前指令的话,就会引发灾难性的后果,因为在新的情况下,原来的假设有可能是无效的。上述例子中的交易量就是一个很好的测量市场流动性的工具,但程序却无法识别交易量本质的真假。除非设定非常特殊的程序,否则程序只会按照设定的规则运转,因为程序本身是不会注意到由于自身的不恰当性所带来的让我们头大心跳的恐怖情形的。关于这一问题,我们在后面章节还会继续讲到。 从美股“闪电崩盘”中吸取的第三个教训则是自动操作系统不仅影响事件过程,还会影响事件结果。交易自动程序中前置的停止命令逻辑会在价格过度不正常时停止交易,因为自动交易会以人类无法反应的速度触发事件,所以必须要有这类设置,以便在特定情况下让自动交易停止下来。不依赖人的监管,而是设置前置命令并确保自动执行程序的安全,这再一次预示了我们将要谈到的机器超级智能中的一个重要主题。

47分钟
43
9个月前
EarsOnMe

加入我们的 Discord

与播客爱好者一起交流

立即加入

播放列表

自动播放下一个

播放列表还是空的

去找些喜欢的节目添加进来吧