霍金:人工智能也有可能是人类文明史的终结

  霍金:人工智能也可能是人类文明史的终结

  网易科技讯12月13日消息,在长城召开的“天启启智未来”活动中,霍金依然无法确定人工智能的兴起对人类来说是好事还是坏事但我们应该尽力确保其未来的发展将有利于我们和我们的环境。 “我认为人工智能的发展本身就是一个有现在和未来必须解决的问题的趋势。”霍金说,人工智能的研究和发展正在迅速发展。也许我们应该暂时停下来,重复我们的研究从提高AI到最大化AI的社会效益的重复。人类会被人工智能所取代吗?霍金说,人类无法知道我们是否会受到人工智能的无限帮助,无论是被蔑视还是被边缘化,或者很可能被它所毁灭。我们担心智能机器将能够取代人类正在做的事情,并迅速消灭数百万个工作机会。另外,霍金强调说,除非我们学会如何避免危险,否则人工智能也可能是人类文明史的终点。我曾经说过,人工智能的全面发展会导致人类的灭亡,比如最大限度地利用智能自主武器。除非人工智能系统需要按照人的意志工作。以下是霍金演讲的一个记录:在我的生活中,我亲眼目睹了社会的深刻变化。人类智力的崛起,最深远的,也是人类影响力不断增长的变化。简而言之,我认为强大的人工智能的兴起不是人类历史上最好的事情,就是最糟糕的事情。我不得不说我们还不确定。但我们应该尽一切可能确保未来的发展将有利于我们和我们的环境。我们别无选择我认为人工智能的发展本身就是一个有现在和未来必须解决的问题的趋势。人工智能的研究和发展正在迅速推进。也许我们应该暂时停下来,重复我们的研究从提高AI到最大化AI的社会效益的重复。基于这样的考虑,AAAI在2008年至2009年间建立了人工智能长期未来委员会(Original:Presidential Panel on Long-term AI Futures),最近投资了面向目标的中立技术,备受关注。但是我们的人工智能系统需要按照我们的意愿工作。跨学科研究是一个可行的方法:从经济学,法学,哲学到计算机安全,形式方法,当然还有人工智能本身。文明产生的一切都是人类智慧的产物,我相信生物大脑可以实现的目标与计算机能够达到的目标之间没有本质的区别。因此,它遵循“计算机在理论上模仿人类智能,然后超越”的原则。但是我们不能确定,所以我们不知道我们是否会被人工智能无限的帮助,被蔑视或边缘化,或者很可能被它所摧毁。事实上,我们担心智能机器将能够取代人类正在做的事情,并迅速消灭数百万个工作岗位。虽然人工智能已经从原来的形式发展起来,而且被证明是非常有用的,但是我也担心创造等于甚至超过人类的东西的结果:一旦人工智能是自由的,它就重新设计自己,处于加速状态。因为它们长期的生物进化而竞争,将会被取代,这将给我们的经济带来巨大的损害,未来人工智能可以发展自我意志和与我们相冲突的意志,尽管我对人性有着乐观的态度,控制技术很长一段时间,以便我们可以看到人工智能的潜力,以解决世界上大部分的问题。但我不敢肯定,2015年1月,我与科技企业家伊隆·马斯克(Elon Musk)和其他许多人工智能专家签署了一份关于人工智能的公开信,以促进对人工智能对社会影响的认真研究。 :超人类的人工智能可能带来无法估量的收益,但如果配置不当,可能会产生与人类相反的效果,我和他一起是生命与未来研究所的科学顾问委员会,这是一个减轻人类面临的风险的组织,此前公开信也是由该组织起草的,这个公开的呼吁可以防止对潜在问题的直接研究,同时获得人工智能可以给我们生活带来的潜在利益,同时,我们承诺让人工智能的研究人员更多地关注人工智能的安全性,另外这封公开信是信息量大的,而不是决策者和公众的危言耸听。人工智能研究人员对这些担忧和道德问题是认真的,我们认为这是非常重要的。例如,人工智能具有消除疾病和贫困的潜力,但研究人员必须能够创造受控的人工智能。公开信仅包含四个段落,题为“优先研究强有力的人工智能”,对随附的十二页中的研究优先次序作了详细的安排。在过去二十年中,人工智能专注于围绕构建智能代理的问题,智能代理是可以在特定环境中感知和行动的系统。在这种情况下,智力是一个与统计和经济相关的理性概念。简而言之,这是一个做出正确的决定,计划和推论的能力。在这些努力的基础上,人工智能,机器学习,统计学,控制论,神经科学等领域都进行了大量的整合与交叉施肥。建立一个共享的理论框架,加上数据供应和处理能力,在各个领域取得了显着的成功。如语音识别,图像分类,自动驾驶,机器翻译,步态运动和问答系统等。随着这些领域的发展,一个良性循环从实验室研究流向具有经济价值的技术。即使绩效有小幅改善,也能带来巨大的经济效益,反过来也促进了长期的,更大的投资和研究。人们普遍认为,人工智能研究正在稳步发展,对社会的影响可能会扩大。潜在的好处是巨大的。既然所有的文明产生的都是人类智慧的产物,那么我们就无法预测我们可以达到什么样的结果,当这种智力被AI工具放大的时候。但正如我所说,消除疾病和贫穷并非不可能。由于人工智能的巨大潜力,研究如何从人工智能中获益和避免风险是非常重要的。现在,人工智能研究正在迅速发展。这个研究可以在短期和长期讨论。一些短期的担忧是无人驾驶,从民用无人驾驶飞机到自动驾驶汽车。例如,在紧急情况下,无人驾驶汽车必须在低风险和大风险之间做出选择。在致命的智能自主武器的另一个担心。他们应该被禁止吗?如果是这样,那么应该如何精确地定义“自主”。如果没有,如何对任何滥用和过失疏忽负责。还有人担心,人工智能可以逐渐解释大量监控数据的隐私和担忧,以及如何管理人工智能替代工作场所的经济影响。目前,控制人工智能技术的工具,如增强学习,简单实用的功能,还不足以解决这个问题。因此,我们需要进一步的研究来寻找和确认这个问题的可靠解决方案。最近的里程碑,比如前面提到的自动驾驶汽车和人工智能赢得了围棋比赛,是未来趋势的标志。这项技术的巨大投资。我们迄今为止所取得的成就不可避免地使今后几十年可能取得的成就黯然失色。而当我们的思想被人工智能放大时,我们所能达到的目标还远远不够。在这个新的技术革命的帮助下,我们也许能够解决一些工业化造成的破坏。我们生活的各个方面即将改变。总之,人工智能的成功可能是人类文明史上最大的事件。但是,除非我们学会如何避免危险,否则人工智能也可能终止在人类文明的历史中。我曾经说过,人工智能的全面发展会导致人类的灭亡,比如最大限度地利用智能自主武器。今年早些时候,我和全世界的一些科学家在联合国会议上共同支持他们禁止核武器。我们正在焦急地等待磋商的结果。目前,九个核大国可以控制约一万四千个核武器。其中任何一个都可以把城市带到地面,放射性废物可以污染大面积的农田。最可怕的危害是核冬天的诱发,火和烟雾导致全球小冰河时代。全球粮食系统崩溃的结果和当天的动荡可能导致大多数人死亡。作为科学家,我们对核武器负有特殊责任,因为科学家们发明了核武器,发现它们的影响比起初想象的更加可怕。在这个阶段,我对这次灾难的讨论可能会吓到你。很抱歉。但作为今天的与会者,重要的是你认识到自己在未来的研究和发展中对当前技术的影响,我相信我们团结一致呼吁支持国际条约或者签署一封给所有政府的公开信,科学技术领袖和科学家正在竭尽全力避免不可控制的人工智能的兴起,去年十月,我在英国剑桥成立了一个新机构,试图解决一些在快速发展过程中不确定的问题发展人工智能研究利弗莫尔智能未来中心是一个跨学科的研究机构,专注于智慧的未来,这对我们的文明和物种的未来至关重要,我们花了大量时间研究历史并深入研究 - 大部分是愚蠢的历史,所以人们转向明智的未来是一个可喜的变化,虽然我们意识到潜在的危险,但我的心仍然乐观,我相信创造智慧的潜在好处是巨大的。也许借助这个新的技术革命,我们就能把工业化给自然带来的危害减轻。我们生活的每个方面都会改变。我学院的同事休·普林斯承认,“利弗莫尔中心”的建立部分是因为大学“存在风险中心”。后者更广泛地考察了人的潜力,而利弗莫尔中心的研究重点相对较包括欧洲议会在内的人工智能方面的最新进展,呼吁起草一系列规范来管理机器人和人工智能的创新,有一种电子人格形式的确保某些人的权利和责任欧洲议会的发言人评论说,越来越多的日常生活领域越来越受到机器人的影响,我们需要确保机器人为现在和未来的人类服务向欧洲议会成员的报告明确地认为,世界处于新型工业机器人的最前沿olution。报告分析了是否有可能为机器人提供电子人权,这与法人的身份是一致的。报告强调,研究人员和设计人员在任何时候都应该确保每一个机器人的设计都包括一个终端开关在库布里克2001年的太空漫游车中,失败的超级计算机哈尔没有让科学家进入囊中,而是科幻小说。我们必须面对的是事实。在一份报告中,奥斯卡•克拉克(Oscars Clarke)跨国律师事务所的合伙人卢布托•布拉泽尔(Louboutin Blazell)在一份报告中说,我们不认为鲸鱼和大猩猩具有个性,所以没有必要急于接受机器人的个性。但担心一直存在。报告承认,几十年来,人工智能可能超越人类的智能,人工智能可能超越人的智能,从而挑战人机关系。报告最后呼吁建立欧洲机器人和人工智能机构,提供技术,道德和监管方面的专业知识。如果欧洲议会议员投票支持立法,报告将提交给欧盟委员会。它将在三个月内决定采取哪些立法措施。我们也应该发挥作用,确保下一代不仅有机会,而且有决心早日充分参与科学研究,使其能够继续发挥潜力,帮助人类创造更美好的世界。当我第一次谈到学习和教育的重要性时,这就是我的意思。我们需要跳出“应该做什么”的理论讨论,并采取行动确保他们有机会参与。我们站在一个美丽新世界的入口处。这是一个充满不确定性的激动人心的世界,你是先行者。我祝福你。