让人工智能发挥正向作用并造福人类

■史蒂芬·霍金   2017-05-29 00:18:00

著名物理学家 史蒂芬·霍金在我的一生中, 我见证了社会深刻的变化。 其中最深刻的, 同时也是对人类影响与日俱增的变化, 是人工智能的崛起。 简单来说, 我认为人工智能的崛起, 要么是人类历史上最好的事, 要么就是最糟的。 我不得不说, 是好是坏我们仍不确定。 但我们应该竭尽所能, 确保其未来发展对我们和我们的环境有利, 对此我们别无选择。

目前, 人工智能的研究与开发正在迅速推进。 也许我们所有人都应该暂停片刻, 把我们的研究从提升人工智能能力转移到人工智能促使社会化、 社会效益上面。 基于这样的考虑, 美国人工智能协会(AAAI)于2008至2009年, 成立了人工智能长期未来总筹论坛, 他们近期在目的导向的中性技术上投入了大量的关注,不过我们的人工智能系统须要按照我们的意志工作。 跨学科研究是一种可能的前进道路: 从经济、 法律、 哲学延伸至计算机安全、 形式化方法, 当然还有人工智能本身的各个分支。

造福还是毁灭人类

文明产生的一切都是人类智能的产物, 我相信生物大脑可以达到的和计算机可以达到的, 没有本质区别。因此, 它遵循了“计算机在理论上可以模仿人类智能, 然后超越” 这一原则。 但我们并不确定, 所以我们无法知道我们是将无限地得到人工智能的帮助, 还是被藐视并被边缘化, 或者很可能被它毁灭。 的确, 我们担心聪明的机器将能够代替人类正在从事的工作, 并迅速地消灭数以百万计的工作岗位。

在人工智能从原始形态不断发展, 并被证明非常有用的同时, 我也在担忧创造一个可以等同或超越人类的事物所导致的结果: 人工智能一旦脱离束缚, 以不断加速的状态重新设计自身。 人类由于受到漫长的生物进化的限制, 无法与之竞争, 将被取代。 这将给我们的经济带来极大的破坏。 未来, 人工智能可以发展出自我意志, 一个与我们冲突的意志。 尽管我对人类一贯持有乐观的态度, 但其他人认为, 人类可以在相当长的时间里控制技术的发展, 这样我们就能看到人工智能可以具备解决世界上大部分问题的潜力。

2015年1月份, 我和科技企业家埃隆·马斯克, 以及许多其他的人工智能专家签署了一份关于人工智能的公开信, 目的是提倡就人工智能对社会所造成的影响做认真的调研。 在这之前, 埃隆·马斯克就警告过人们:超人类人工智能可能带来不可估量的利益, 但是如果部署不当, 则可能给人类带来相反的效果。 我和他同在“生命未来研究所” 的科学顾问委员会, 这是一个为了缓解人类所面临的存在风险的组织, 而且之前提到的公开信也是由这个组织起草的。 这个公开信号召展开可以阻止潜在问题的直接研究, 也收获人工智能带给我们的潜在利益, 同时致力于让人工智能的研发人员更关注人工智能安全。 此外, 对于决策者和普通大众来说, 这封公开信内容翔实, 并非危言耸听。

人人都知道人工智能研究人员们在认真思索这些担心和伦理问题, 我们认为这一点非常重要。 比如, 人工智能是有根除疾患和贫困潜力的, 但是研究人员必须能够创造出可控的人工智能。

人工智能的前沿研究领域

在过去的20年里, 人工智能一直专注于围绕建设智能代理所产生的问题, 也就是在特定环境下可以感知并行动的各种系统。 在这种情况下,智能是一个与统计学和经济学相关的理性概念。 通俗地讲, 这是一种做出好的决定、 计划和推论的能力。 基于这些工作, 大量的整合和交叉孕育被应用在人工智能、 机器学习、 统计学、 控制论、 神经科学以及其它领域。 共享理论框架的建立, 结合数据的供应和处理能力, 在各种细分的领域取得了显著的成功。 例如语音识别、 图像分类、 自动驾驶、 机器翻译、 步态运动和问答系统。

现在, 关于人工智能的研究正在迅速发展。 这一研究可以从短期和长期来讨论。 一些短期的担忧在无人驾驶方面, 从民用无人机到自主驾驶汽车。 比如说, 在紧急情况下, 一辆无人驾驶汽车不得不在小风险的大事故和大概率的小事故之间进行选择。 另一个担忧在致命性智能自主武器。 他们是否该被禁止? 如果是, 那么“自主” 该如何精确定义。 如果不是, 任何使用不当和故障的过失应该如何问责。 还有另外一些担忧, 由人工智能逐渐可以解读大量监控数据引起的隐私和担忧, 以及如何管理因人工智能取代工作岗位带来的经济影响。

长期担忧主要是人工智能系统失控的潜在风险, 随着不遵循人类意愿行事的超级智能的崛起, 那个强大的系统威胁到人类。 这样错位的结果是否有可能? 如果是, 这些情况是如何出现的? 我们应该投入什么样的研究, 以便更好地理解和解决危险的超级智能崛起的可能性, 或智能爆发的出现?

当前控制人工智能技术的工具,例如强化学习, 简单实用的功能, 还不足以解决这个问题。 因此, 我们需要进一步研究来找到和确认一个可靠的解决办法来掌控这一问题。

近来的里程碑, 比如说之前提到的自主驾驶汽车, 以及人工智能赢得围棋比赛, 都是未来趋势的迹象。 巨大的投入倾注到这项科技。 我们目前所取得的成就, 和未来几十年后可能取得的成就相比, 必然相形见绌。 而且我们远不能预测我们能取得什么成就, 当我们的头脑被人工智能放大以后。 也许在这种新技术革命的辅助下, 我们可以解决一些工业化对自然界造成的损害。 关乎到我们生活的各个方面都即将被改变。 简而言之, 人工智能的成功有可能是人类文明史上最大的事件。

但是人工智能也有可能是人类文明史的终结, 除非我们学会如何避免危险。 我曾经说过, 人工智能的全方位发展可能招致人类的灭亡, 比如最大化使用智能性自主武器。 现阶段,我对灾难的探讨可能惊吓到了在座的各位。 不过, 作为今天的与会者, 重要的是, 你们要认清自己在影响当前技术的未来研发中的位置。 我相信我们团结在一起, 来呼吁国际条约的支持或者签署呈交给各国政府的公开信, 科技领袖和科学家正极尽所能避免不可控的人工智能的崛起。

人类要保持清醒的头脑

去年10月, 我在英国剑桥建立了一个新的机构, 试图解决一些在人工智能研究快速发展中出现的尚无定论的问题。 “利弗休姆智能未来中心” 是一个跨学科研究所, 致力于研究智能的未来, 这对我们文明和物种的未来至关重要。 虽然我们对潜在危险有所意识, 但我内心仍秉持乐观态度, 我相信创造智能的潜在收益是巨大的。 也许借助这项新技术革命的工具, 我们将可以削减工业化对自然界造成的伤害。

人工智能的最新进展, 包括欧洲议会呼吁起草一系列法规, 以管理机器人和人工智能的创新。 令人感到些许惊讶的是, 这里面涉及到了一种形式的电子人格, 以确保最有能力和最先进的人工智能的权利和责任。 随着日常生活中越来越多的领域日益受到机器人的影响, 我们需要确保机器人无论现在还是将来, 都为人类而服务。 这也被明确认为将成为世界新工业机器人革命的前沿。 在任何时候,研究和设计人员都应确保每一个机器人设计都包含有终止开关。 在库布里克的电影《2001太空漫游》中, 出故障的超级电脑哈尔没有让科学家们进入太空舱, 但那是科幻, 我们要面对的则是事实。 所以我们应该扮演好这样一个角色, 确保下一代不仅仅有机会还要有决心, 在早期阶段充分参与科学研究, 以便他们继续发挥潜力, 帮助人类创造一个更加美好的世界。 这就是我刚谈到学习和教育的重要性时, 所要表达的意思。 我们需要跳出“事情应该如何” 这样的理论探讨,并且采取行动, 以确保他们有机会参与进来。 我们站在一个美丽新世界的入口。 这是一个令人兴奋的、 但同时充满了不确定性的时代。

(本文根据史蒂芬·霍金教授在2017GMIC全球移动互联网大会上的视频演讲整理而成, 未经本人确认。)

上一篇回2017年5月第16期目录 下一篇 (方向键翻页,回车键返回目录)加入书签

© 2016 毕业论文网 > 让人工智能发挥正向作用并造福人类