• RSS订阅 加入收藏  设为首页
热点聚焦

人工智能革命——人类的永生或灭绝(10)

时间:2016-5-3 8:34:59  作者:黄菁 编译  来源:中华智库园  查看:218  评论:0
内容摘要:我研究人工智能的一个原因是:我总对“坏机器人”的话题感到困惑。所有关于邪恶机器人的电影貌似太过异想天开,没法让我真正理解如果现实生活中的人工智能的确很危险的话,会是什么情况。

[美]蒂姆•厄本 作 黄菁 编译

 

为什么未来有可能是我们最可怕的噩梦

我研究人工智能的一个原因是:我总对“坏机器人”的话题感到困惑。所有关于邪恶机器人的电影貌似太过异想天开,没法让我真正理解如果现实生活中的人工智能的确很危险的话,会是什么情况。机器人是我们造的,为什么按着设计来,还会有一些不好的事情发生呢?难道我们不能嵌入足够多的安全装置吗?我们就不能随时给ASI系统断电、把它关掉吗?到底为什么机器人会想干坏事呢?首先,机器人为什么会“想要”什么或“想要做”什么呢?我曾高度怀疑。但是后来,我不断听到真正聪明的人在谈论这个话题……

这些人一般站在这里(如下图):

人工智能革命——人类的永生或灭绝(10) 

站在“焦虑大道”的人们可不是在“恐慌草原”或是“无望山”——这俩地儿都在表格的最左侧区域里——但是他们的确感到焦虑和紧张。在图表的中部并不意味着你认为ASI的出现不好也不坏——认为不好也不坏的另有阵营——它意味着,你认为超好或极糟的结果都貌似有理,但是你还不确定最终会是哪一个。

所有这些人中,有一部分人对超级人工智能可以为我们做很多事而兴奋不已。只是他们有点儿担心,人类搞不好会像电影《夺宝奇兵》故事开头的这位老兄:

人工智能革命——人类的永生或灭绝(10) 

他拿着鞭子和神像站在那儿无比开心,心想这回事儿全妥了。当他说“先生再见”时还无比兴奋,然而接下来他就没那么兴奋了,因为:

人工智能革命——人类的永生或灭绝(10) 

(抱歉)

而与此同时,更有见识也更加谨慎的印第安纳•琼斯,明白环境的凶险,知道该如何躲避,最后从洞中安然逃生。而一当我听到焦虑大道人士要对人工智能说点啥,这些话听起来往往像是:“嗯,我们现在多少有点像那个老兄。这样不行,就算真的很难,我们也得尝试成为印第安纳•琼斯。”

所以,究竟是什么,让焦虑大道的每一个人这么焦虑呢?

首先,从广义上讲,当提到发展超级聪明的人工智能,我们正在创造一种可能改变一切的东西;但在完全未知的领域,在超级人工智能出现之后将会发生什么,我们一无所知。科学家丹尼•希利斯(Danny Hillis)把正在发生的事比作“单细胞有机体正向多细胞生物转化时期。我们是变形虫,搞不清楚我们正创造的究竟是什么东西”。尼克•博斯特罗姆(Nick Bostrom)担心创造一种比我们更聪敏的东西犯了基本的达尔文主义错误,他把创造的兴奋比作窝中麻雀想要收养一只小猫头鹰,盼着它长大之后,能够帮助它们、保护它们——却忽视了其他一些想弄清楚这是不是好主意的麻雀们急切的叫声。

而当你把“未知的、不甚明了的领域”和“它的出现将产生重大影响”两相结合,就打开了通往最可怕的两个英语词的大门:

Existential risk(生存风险)。

生存风险能给人类带来永久的破坏性影响。通常,生存风险意味着灭绝。下面这个图表是博斯特罗姆在一次谷歌谈话中提出的,我们一起来看看:

人工智能革命——人类的永生或灭绝(10) 

可以看到,“生存风险”标签留待描述那种跨越种族、持续多代人(即,永久性的)、招致灾难性或死亡后果的事情。严格意义上讲,它还包括着一种所有人类永久受苦受难的情形,但同样,我们一般指的是灭绝。有三种事情能够引发人类的生存灾难:

(1)自然事件——与巨大的小行星相撞、大气转变得不适宜人类生存、致命病毒或是细菌引起的疾病席卷世界,等等。

(2)外星人——这正是史蒂芬•霍金(Stephen Hawking)、卡尔•萨根(Carl Sagan)和其他很多天文学家害怕的事情。他们建议METI(Messaging to Extraterrestrial Intelligence,主动搜寻地外文明计划)停止向外太空播送讯号。他们不想我们变成美洲土著,让所有潜在的欧洲殖民者都知道我们的位置。

(3)人类——恐怖分子掌握了可致灭绝的武器、灾难性的世界大战、人类未经认真思考就创造出了比他们自己更加聪明的东西……

博斯特罗姆指出,1与2号事件,在我们成为物种的10万年以来没有消灭我们,在下一个世纪彻底摧毁我们的可能性也不大。

但是3号,让他感到害怕。他拿一个装了很多弹球的缸打了比方。绝大多数弹球都是白色的,有一小部分是红色的,有很少的几个是黑色的。每当人类有了新发明,就好比从缸中拿出了一颗弹球。绝大多数发明都是无害或是有益于人类的——这是那些白色弹球。有些是对人类有害的,比如大规模杀伤性武器,但它们不会导致生存大灾难——这是红色弹球。如果我们要发明出一样把我们带向灭绝的东西,则好比是拿出了罕见的黑色弹球。我们还没有拿出过黑色弹球——你知道这个,是因为你还活着,正读着这篇帖子。但博斯特罗姆认为,我们在不久的将来拿到一颗黑色弹球并非不可能。打个比方,如果核武器制造起来非常简单,而不是极其困难和复杂,那估计恐怖分子已经把人类炸回石器时代了。核武器,不是黑色弹球,但已差之不远。ASI,博斯特罗姆相信,是我们迄今为止最有力的黑色弹球候选者。

所以,你将听到很多关于ASI 可能会带来的糟糕事儿——由于越来越多的工作采用人工智能,造成失业率大幅增长,由于解决了衰老问题,导致人口膨胀,等等。但只有一件事情,是我们应当给予高度关注的重大关切:生存风险。

所以,这又把我们带回到帖子之前提到的关键性问题:ASI出现时,谁,或什么,将主宰这种强大的新力量?他们会有什么样的动机?

当思考这个“执行者—动机”可能是怎样的组合时,有两样东西很快浮现在脑海:一个邪恶的人/人类团体/政府,加上一部邪恶的超级人工智能。那么,这种结合将会如何?

一个邪恶的人、人类团体或政府,开发出了第一部ASI,用它来实施他们的邪恶计划,我称之为贾法尔设想。因为他们会像贾法尔掌控了神灯精灵之后,变得烦人又专横。所以,假如在ISIS(伊斯兰国组织)羽翼之下,有一些天才工程师在狂热地开发人工智能怎么办?又或是伊朗、朝鲜机缘巧合,在人工智能系统上取得了关键性突破,次年就实现了超级人工智能怎么办?这肯定是坏事——但在这些设想中,绝大多数专家担心的并不是ASI的人类创造者们用它们去干坏事;专家们担心的是,这些创造者们未经仔细考虑,就匆匆忙忙造出了第一部ASI,并因此失去对它的控制。随后,这些创造者的命运,以及其他所有人的命运,都将取决于这部ASI系统碰巧是什么动机。专家们的确相信一个邪恶的人类执行者能利用ASI制造恐怖破坏,但他们并不认为这是会杀死所有人的那一种。因为他们相信,坏人在控制ASI系统上,会有和好人一样的问题。所以—— 邪恶的ASI被创造出来,打算毁掉我们所有人。每一部人工智能电影的情节。人工智能变得像人类一样聪明或是比人类更为聪明之后,打算与我们对抗并取而代之。在这儿,我希望你在读本帖余下文字时能明白:在提醒我们关注人工智能危险性的人中,没有人提到“邪恶”。邪恶是一个人类概念。而把人类概念应用到非人类事物上的行为,叫做“人格化”。去人格化将是帖子下文的主题之一。没有人工智能系统会像电影中描写的那样变得邪恶。(待续)人工智能革命——人类的永生或灭绝(10)

 

(英文原版地址:The AI Revolution: Road to Superintelligence The AI Revolution: Our Immortality or Extinction)


标签:人工智能革命 人类的永生或灭绝 10 
相关评论

免责声明

    本网站转载的所有的文章、图片、音频、视频文件等资料,均出于为公众传播有益资讯信息之目的,其版权归版权所有人所有。所采用的非本站原创文章及图片等内容无法逐一和版权者联系,若所选内容作者及编辑认为其作品不宜上本网供大家浏览,请及时用电子邮件通知我们,以便即时删除,避免给双方造成不必要的损失。

邮箱:zhzky102@163.com

 

主办单位:智库园(北京)国际文化有限公司  技术支持:中企集成  京公网安备:110108006569  备案号:京ICP备10020766号-2