StuartRusell专访斯坦福百年
1新智元编译
来源:edge
编译:张易皓辰弗格森
UCBerkeley大学计算机科学系教授,人工智能著名教材《ArtificialIntelligence:AModernApproach》第一作者日前接受了Edge的专访。目前全世界有多所学校,包括一些知名大学,都在使用他的书作为人工智能标准教材。这位人工智能界赫赫有名的大师分享了他对人工智能的独特观点。他认为,大多数人对智能的定义都是不清晰的。结合自己多年来的研究心得,他在访谈中尝试对“智能”一词进行定义:有限最优性(boundedoptimality)。他认为:我仍然不认为我们应该将AI看作算法的集合。算法只是针对特定问题的高度工程化的产物。
StuartRussell,UCBerkeley大学计算机科学教授。他是人工智能著名教材《ArtificialIntelligence:AModernApproach》第一作者。
研究人工智能太诱人了,不可抗拒我的工作领域是人工智能,从一开始我就问自己如何能创造真正的智能系统。我的一部分大脑总在考虑下一个障碍会在哪里。为什么我们的认知放在现实世界中总是出错?错误的本质是什么?如何避免?如何创造新一代表现更好的系统?同时,如果我们成功了,会发生什么?
回溯到年,利益和可能出现的弊端尚且是均势的。尽管人工智能可能带来的大规模失业风险已很明显,失控可能出现。如果你建造了比你更聪明的系统,很明显会有失控的问题。想象你是只大猩猩,问问自己,我的祖先应该进化成人类吗?
从大猩猩的观点来看,这可不是个好主意。94年我要说我对为什么我们会失去对AI的控制还不太理解。打个比方,人们在猩猩和人类或者人类和超级外星文明中做类比,但问题是猩猩没有故意去设计人类,人类也没有故意去设计出超级外星文明。
问题的本质是什么?我们能否解决?我愿意相信能够解决。一种解决思路是要么减缓AI的发展,要么停止发展智能系统中的某些方面——如果我们不知如何控制它的话。这是非常困难的,因为压力巨大。我们都想要更智能的系统——它们能带来巨大的经济利益。
比尔·盖茨说过,解决了机器学习的问题,抵得上十个微软。彼时,那要花掉4万亿,这对人类推进技术进步来说还算是划算的。我们如何让AI更能干?如果可以,我们如何能让结果对我们更有利?这是我经常会问自己的问题。
我问的另一个问题是:为什么我的同事们没有问自己这样的问题?是因为惰性吗?一个典型的工程师或计算机学家是不是已经陷入了某种惯性思维?或者他们是在一条他们没有想过通往何处的轨道上,也从来不会去想是不是应该停下来或者慢下来?或者只是我错了?在我的思考中,是不是有一些错误,将我导向了失控的误判?我总在问自己是不是我错了。
我审视了人们关于这个问题是否值得注意的争论。他们不愿意直面这个问题,因为似乎反对声是来自于人类的一些防备心。很明显,威胁是存在的。我们可以看看原子物理学的发展历史。有一些非常著名的原子物理学家就是不承认原子物理学会导向核武器。
核武器的想法大约出现在至少年,当时H.G.Wells写了WorldSetFree,其中他描述了一种原子炸弹的武器。物理学的部分他写的不是太准确。他想象原子炸弹能够持续爆炸数周,释放出巨大的能量,会给一座城市带来巨大的能源。基本就是这样。也有一些物理学家,比如FrederickSoddy,预见到了风险,但更有像ErnestRutherford这样的科学家就是不承认可能出现的危险。直到LeoSzilard发明原子链反应的前夜,Rutherford还在否认。正式的实体建设本可以避免,而从无到有也不过区区16小时。
我不认为AI会发生同样的事情,因为我们还有一个瓶颈需要突破。Szilard似乎就是突破了一个瓶颈,想出了原子链反应的方法,不过在真正的核反应被演示出来,这仍然花了5、6年的时间。
5、6年只是弹指一挥间。如果我们有5、6年时间搞出超级人工智能系统,我们也就不用担心控制问题了,同时我们也可能会看到消极的结果。如果幸运的话,它们会被限制起来,这就会成为一个我们为什么不要这么做的反面例子。就好像切尔诺贝利被用来说明为什么要限制原子能反应一样。
早先我没有太多考虑过限制和控制的问题。我的第一个AI项目是年的一个国际象棋程序,当时是在高中。那时我读了很多科幻小说,还看了《漫游》和《星际迷航》。在流行文化里,人工智能失控应该是猴年马月的事情。
年轻时我是个单纯的科技乐观主义者,对我来说研究人工智能太诱人了,不可抗拒。高中时我学习了计算机科学,对机器学习非常感兴趣,我写了一个小游戏程序,接着就是那个国际象棋程序。我读了一些AI方面的书籍,不过那时我并不觉得AI是个严肃的学术领域。
从物理学到人工智能我希望成为物理学家,所以本科选择了物理学。我和物理学毕业生、博士后和一些导师聊了聊,对于原子理论的未来不太乐观。你得花个10年在个作者里脱颖而出,如果走运的话,再花个十几年成为博士后,然后你可能得到一个教职,但也有可能成为一个出租车司机。
年我毕了业,没什么大事。弦理论开始流行了。人们在寻找物理学的大一统理论,却没找到什么靠得住的。我记得非常清楚,我和当时任教的ChrisLiewellynSmith有过一次交谈——他很快就要去CERN当主任了——我问他在做些什么。在所有我认识的和在哈佛上过课的老师中,他是最聪明的一个。他说他也在搞大一统理论,还在努力把它们转换成数理逻辑。因为学过一点AI,我明白他的意思。数理逻辑可以让人直接比较两个理论,来判断它们是否相等或产生可测试的结果。对物理学家来说,这是个相当新的想法,不光是供争论,而且能提出数学上的证据。
他检验了81条理论中的64条,结果只有3条独立的理论,所以人们只是在书写理论,都没意识到他们和别人总结的理论没什么不同。
这3条理论中有2条,原则上,是无法测试的,这意味着整个宇宙里都没有可供观测的结果。第三条可以被测试,但想看到任何可供观测的结果要花上年。对我来说,这次谈话相当压抑。平衡可能就是那时被打破的——还有关于毕业生和博士后的那件事——我于是投身到计算机科学,去了加州。
斯坦福受训到达斯坦福的时候,我几乎没碰上任何计算机学家。我在高中和大学之间的那段时间,在IBM工作了一年。他们有一些非常好的计算机学家。在那儿我做了一些有意思的事,我对人工智能领域的计算机学家是个什么样子也多少有了些认识。
在Edinburgh我遇到了AlanBundy,我也是在Edinburgh被授予的博士学位,那里有英国最好的AI项目。很多人建议我如果我能进斯坦福或者MIT,我应该从二者里挑一个。尽管比申请截止时间晚了6周,我还是进了斯坦福。他们愿意考虑我的申请真是太好了。
我刚到那儿的时候,我的第一任导师是DougLenat。Doug非常积极乐观,充满干劲,他研究的问题也很酷。他绘制了他的Eurisko系统,作为一个多层机器学习系统,被用来自由成长为一个智能系统。
Doug很有野心,我喜欢这一点。我和他工作了一段时间。不幸的是,他没有终身职位。对于任何学术机构来说,他的野心可能有些太大了。有些人没有看到他论文和实验中的严谨和清晰。
然后我和MikeGenesereth一起工作,他在数学上更为严谨。每篇论文都应该有理论支撑。他想建立一套非常牢固的能力和概念的体系,但仍然有建立真正智能系统的野心。他对诸如自动诊断、自动设计这样的应用类科技也有兴趣。
我和ZoharManna有一些交流,他更像一位计算机逻辑学家,对用逻辑学来验证和综合推理更有兴趣。我从他那里吸取了不少有趣的想法。不过,他对AI不是特别感兴趣,所以我们不是太合得来。一度我曾希望请DougLenat和ZoharManna作为我的两位论文导师,但他们之间根本没有沟通,所以没能如愿。
82年我去了斯坦福。那里有Feigenbaum,NilsNilsson就在距离不远的SRI。Minsky当时还有点不太显眼。他论文发表得比较少。年他已经发表了那篇Frames的论文,有些影响。斯坦福,像很多大学一样,有他们的AI分支,而且他们也不太把他们自己的学生介绍到其他学校的AI分支去。
斯坦福有启发式算法程序项目,由EdFeigenbaum带头,主要是关于专家系统的。MikeGenesereth也参与其中,但他采用的主要是基于逻辑的方法。概率当时还不被认为是特别相关的。当时对于为什么你不能在构建系统时采用概率论还是有争论的。
概率论的广泛介入是EricHorvitz和DavidHeckerman这两个医学AI项目的毕业生以及TedShortliffe加入以后的事。他们阅读了JudeaPearl关于贝叶斯网络的著作,或者像他们当时叫的,置信网络。我那时开始理解那本著作有多重要了。年Pearl的著作问世时,我相信以前我学到的一些内容很可能是错的了。使用概率论是完全可行的,实际上,面对不确定性,它的效果比基于规则的方法好得多,此前斯坦福一直在推行基于规则的方法。
我的论文研究是机器学习方面的,但使用了逻辑工具来理解学习系统内部发生了什么,尤其是,一个学习系统如何能借助它已经学会的东西来帮助它进一步的学习新知识。到今天为止这个问题仍很关键,因为当人类学习时,他们是借助一切他们已知的信息来理解未知的。
人类通常会从一、两个典型的现象或一种新接触的事物或经历中快速学习,而当前的机器学习系统可能需要数万或数百万的例子才能达到学习的效果。当前机器学习系统被设计为只学习很少的或零先前经验,因为人类对这个问题什么也不甚了解,但其实这并不是常态,人类总在不停的积累经验,机器只是模拟了人类生命的前五分钟的那种无知状态。之后当人类已经知道了一些东西,就会开始使用他们所知道的东西来学习下一件事情了。
从零开始学习是一件好事,但它不能很好地解释智力,除非你能证明你开始的这个空无一物的程序,继续喂给它经验,它变得超级智能。我们距离那个目标还很远。
有限理性研究如果你想想当前的学习系统内部发生了什么-我知道这有点跑题-我们教他们学会认识一只羊或奥尔兹莫比尔牌汽车。这些是离散的逻辑类别,我们这样做是因为它对我们建立了一个羊识别器或奥尔兹莫比尔牌汽车识别器,而且是有用的,但如果这将变成一个更大规模的智能系统的一部分呢?如果你是一个深层学习的信徒,你不相信深度学习网络会使用离散的逻辑类别或“羊有四条腿”这种明确的知识,你为什么认为训练羊识别器是迈向通用智能的一个步骤,除非通用智能确实使用离散的逻辑类别思考,或者至少反观人类似乎是这样的?
我做的第一件被认为是机器学习领域的一件大事,就是在有限理性(boundedrationality)上的研究。在我看来,智力是一种做事成功的能力。正确思考或快速地学习都有一个目的,就是能够行事成功,或是选择最有可能实现目标的行动。
智力的定义一直围绕着经济学家所推崇的“理性”、控制理论家所