当前位置:ope体育官方网站 > 自然科学 >

霍金:人工智能也可能是人类文明的终结者—新

发布时间:2017-12-04 阅读:

  霍金:人工智能也可能是人类文明的终结者 - 新闻 - 科学网

  4月27日,着名物理学家史蒂芬·霍金(Stephen Hawking)在北京举行的全球移动互联网大会上做了视频讲座。霍金在讲话中重申,人工智能的兴起不是人类最好的就是人类最糟糕的。他认为人类需要防范人工智能的威胁。由于人造智能一旦分离并重新设计,人类将因其长期的生物进化制约而无法与之竞争。

  以下是霍金演讲内容:

  在我的生活中,我见证了深刻的社会变化。人类智力的崛起,最深远的,也是人类影响力不断增长的变化。简而言之,我认为强大的人工智能的兴起不是人类历史上最好的事情,就是最糟糕的事情。我不得不说,这是好还是坏,我们还不确定。但我们应该尽一切可能确保未来的发展将有利于我们和我们的环境。我们别无选择我认为人工智能的发展本身就是一个有现在和未来必须解决的问题的趋势。

  人工智能的研究和发展正在迅速推进。也许我们应该暂时停下来,重复我们的研究从提高AI到最大化AI的社会效益的重复。基于这样的考虑,AAAI从2008年到2009年建立了一个长期的人工智能AI人工智能论坛,最近他们更加关注面向目标的中立技术。但是我们的人工智能系统需要按照我们的意愿工作。跨学科研究是一个可行的方法:从经济学,法学,哲学到计算机安全,形式方法,当然还有人工智能本身。

  文明产生的一切都是人类智慧的产物,我相信生物大脑可以实现的目标与计算机能够达到的目标之间没有本质的区别。因此,计算机理论上可以模仿人的智慧,然后超越这个原则。但是我们不能确定,所以我们不知道我们是否会受到人工智能的无限帮助,无论是被蔑视还是被边缘化,或者很可能被它所毁灭。事实上,我们担心智能机器将能够取代人类正在做的事情,并迅速消灭数百万个工作机会。

  虽然人工智能已经从原来的形式发展起来,而且被证明是非常有用的,但是我也担心创造等于甚至超过人类的东西的结果:一旦人工智能是自由的,它就重新设计自己,处于加速状态。因为它们长期的生物进化而竞争,将会被取代,这将给我们的经济带来巨大的损害,未来人工智能可以发展自我意志和与我们相冲突的意志,尽管我对人性有着乐观的态度,控制技术很长一段时间,以便我们可以看到人工智能的潜力来解决世界上大部分的问题。但我不确定。

  2015年1月,我与技术企业家伊隆·马斯克(Elon Musk)和其他许多人工智能专家签署了一份关于人工智能的公开信,以促进对人工智能对社会影响的认真研究。早些时候,Eleonmask警告人们超人工智能会带来不可估量的好处,但是如果部署不正确,可能会对人类产生相反的影响。我和他是在生命,未来研究所的科学顾问委员会,这是一个减轻人类面临的风险的组织,早先的公开信也由组织起草。这个公开的呼吁可以防止对潜在问题的直接研究,同时也可以获得人工智能可以给我们的生活带来的潜在好处。同时,我们致力于让AI研究人员更专注于AI安全。另外,这封公开信对决策者和公众来说是信息量大的,而不是危言耸听。大家都知道,人工智能研究人员对这些问题和道德问题是认真的,我们认为这是非常重要的。例如,人工智能具有消除疾病和贫困的潜力,但研究人员必须能够创造受控的人工智能。公开信仅包含四个段落,题为“优先研究强有力的人工智能”,对随附的十二页中的研究优先次序作了详细的安排。

  在过去二十年中,人工智能专注于围绕构建智能代理的问题,智能代理是可以在特定环境中感知和行动的系统。在这种情况下,智力是一个与统计和经济相关的理性概念。简而言之,这是一个做出正确的决定,计划和推论的能力。在这些努力的基础上,人工智能,机器学习,统计学,控制论,神经科学等领域都进行了大量的整合与交叉施肥。建立一个共享的理论框架,加上数据供应和处理能力,在各个领域取得了显着的成功。如语音识别,图像分类,自动驾驶,机器翻译,步态运动和问答系统等。

  随着这些领域的发展,一个良性循环从实验室研究流向具有经济价值的技术。即使绩效有小幅改善,也能带来巨大的经济效益,反过来也促进了长期的,更大的投资和研究。人们普遍认为,人工智能研究正在稳步发展,对社会的影响可能会扩大。潜在的好处是巨大的。既然所有文明产生的是人类智慧的产物,我们就无法预测我们可以达到什么样的结果,当这种智力被AI工具放大时。但正如我所说,消除疾病和贫穷并非不可能。由于人工智能的巨大潜力,研究如何(从人工智能)受益和避免风险是非常重要的。

  现在,人工智能的研究正在迅速发展。这个研究可以在短期和长期讨论。一些短期的担忧是无人驾驶,从民用无人驾驶飞机到自动驾驶汽车。例如,在紧急情况下,无人驾驶汽车必须在大风险和大风险之间进行选择。在致命的智能自主武器的另一个担心。他们应该被禁止吗?如果是,那么究竟应该如何定义自治。如果没有,如何对任何滥用和过失疏忽负责。还有人担心,人工智能可以逐渐解释大量监控数据的隐私和担忧,以及如何管理人工智能替代工作场所的经济影响。

  长期的担忧主要是失控的人工智能系统的潜在风险,这是一个威胁人类的强大系统,随着超智能的兴起而不遵循人的意志。这样的错误结果有可能吗?如果是的话,这些情况是如何发生的?为了更好地理解和解决危险的超智能崛起或智能爆发的可能性,我们应该进行什么样的研究?

  目前,控制人工智能技术的工具,如增强学习,简单实用的功能,还不足以解决这个问题。因此,我们需要进一步的研究来寻找和确认这个问题的可靠解决方案。

  最近的里程碑,比如前面提到的自动驾驶汽车和人工智能赢得了围棋比赛,是未来趋势的标志。这项技术的巨大投资。我们迄今为止所取得的成就不可避免地使今后几十年可能取得的成就黯然失色。而当我们的思想被人工智能放大时,我们所能达到的目标还远远不够。在这个新的技术革命的帮助下,我们也许能够解决一些工业化造成的破坏。我们生活的各个方面即将改变。总之,人工智能的成功可能是人类文明史上最大的事件。

  但是,除非我们学会如何避免危险,否则人工智能也可能终止在人类文明的历史中。我曾经说过,人工智能的全面发展会导致人类的灭亡,比如最大限度地利用智能自主武器。今年早些时候,我和全世界的一些科学家在联合国的会议上共同支持他们禁止核武器。我们正在焦急地等待磋商的结果。目前,九个核大国可以控制约一万四千个核武器。它们中的任何一个都可以将城市带到地面,放射性废物可以污染大面积的农田。最可怕的危害是核冬天引起的,火和烟引起全球小冰河时代。全球粮食系统崩溃的结果和当天的动荡可能导致大多数人死亡。作为科学家,我们对核武器负有特殊责任,因为科学家们发明了核武器,发现它们的影响比起初想象的更为可怕。

  在这个阶段,我对这次灾难的讨论可能会吓到你。很抱歉。但作为今天的与会者,重要的是你认识到自己在未来的研究和发展中对当前技术的影响,我相信我们团结一致呼吁支持国际条约或者签署一封给所有政府的公开信,科技领军人物和科学家正在竭尽全力避免无法控制的人工智能的兴起。

  去年十月,我在英国剑桥成立了一个新机构,试图解决人工智能研究快速发展带来的一些不确定的问题。利弗莫尔智能未来中心是一个跨学科的研究机构,专注于智慧的未来,这对我们的文明和物种的未来至关重要。我们花了很多时间学习历史,最深入的是愚蠢的历史。所以人们转向明智的未来是一个可喜的变化。虽然我们意识到潜在的危险,但我的心仍然乐观,我相信创造智能的潜在好处是巨大的。也许借助这个新的技术革命,我们就能把工业化给自然带来的危害减轻。

  我们生活的每个方面都会改变。研究所同事Plumpton教授承认可以建立Livermore中心,部分原因是由于大学存在风险中心,后者更广泛地考察了人类的潜力,而Livermore中心的研究重点相对较窄。

  包括欧洲议会在内的人工智能方面的最新进展要求起草一系列管理机器人和人工智能创新的法规。有一种电子人格形式确保最有能力和最先进的人工智能的权利和责任,这有些令人惊讶。欧洲议会发言人评论说,越来越多的日常生活领域越来越受到机器人的影响,我们需要确保机器人现在和将来为人类服务。向欧洲议会成员的报告明确地认为,世界正处在新的工业机器人革命的最前沿。报告分析了是否有可能为机器人提供电子人权,这与法人的身份是一致的。报告强调,研究人员和设计人员在任何时候都应该确保每一个机器人的设计都包括一个终端开关在库布里克2001年的太空漫游车中,失败的超级计算机哈尔没有让科学家进入囊中,而是科幻小说。我们必须面对的是事实。奥斯卡•克拉克(Oscars Clarke)跨国律师事务所的合伙人Loner Blazarel在报告中表示,我们不认可鲸鱼和大猩猩具有个性,所以没有必要急于接受机器人的个性。但担心一直存在。报告承认,几十年来,人工智能可能超越人的智能,人工智能可能超越人的智能,从而挑战人机关系。报告最后呼吁建立欧洲机器人和人工智能机构,提供技术,道德和监管方面的专业知识。如果欧洲议会议员投票支持立法,报告将提交给欧盟委员会。它将在三个月内决定采取哪些立法措施。

  我们也应该发挥作用,确保下一代不仅有机会,而且有决心早日充分参与科学研究,使他们能够继续发挥自己的潜力,帮助人类创造一个更美好的世界。当我第一次谈到学习和教育的重要性时,这就是我的意思。我们需要从理论上讨论应该如何做,并采取行动确保他们有机会参与。我们站在一个美丽新世界的入口处。这是一个充满不确定性的激动人心的世界,你是先行者。我祝福你。

  \\ u0026

  特别声明:本文仅为传播信息的目的转载,并不代表本网站或其内容的真实性;如从本网站转载的其他媒体,网站或个人将被保留在本网站上,并对版权拥有法律责任;如果您不想转载或联系转载稿件费等事宜,请与我们联系。

关键词: 自然科学