• RSS订阅 加入收藏  设为首页
热点聚焦

人工智能革命——人类的永生或灭绝(12)

时间:2016-5-5 10:27:13  作者:黄菁 编译  来源:中华智库园  查看:260  评论:0
内容摘要:在上面的故事里,当塔莉变得超能,她便开始了向小行星和其他行星的殖民过程。如果这个故事继续下去,你就会听说塔莉和她的数万亿个副本组成的部队逐步占领了整个星系,并最终,占领了整个哈勃体积(也称为可观测宇宙,英语:HubbleVolume。现在哈勃体积半径约为460亿光年——译者注)。

[美]蒂姆•厄本 作 黄菁 编译

 

费米悖论

在上面的故事里,当塔莉变得超能,她便开始了向小行星和其他行星的殖民过程。如果这个故事继续下去,你就会听说塔莉和她的数万亿个副本组成的部队逐步占领了整个星系,并最终,占领了整个哈勃体积(也称为可观测宇宙,英语:Hubble Volume。现在哈勃体积半径约为460亿光年——译者注)。“焦虑大道”人士担心事情一旦变糟糕,一部主宰宇宙的人工智能,将成为地球生命的不朽遗产(埃隆•马斯克(Elon Musk)表达了他的担忧:人类也许只是“数字超级智能的生物引导装载程序”)。

与此同时,信心角的库兹韦尔同样认为起源于地球的人工智能注定将接管宇宙——只是在他的版本里,那个人工智能就是我们。

“Wait But Why”网站的不少读者都读过我关于费米悖论的帖子(此为该贴链接:http://waitbutwhy.com/2014/05/fermi-paradox.html。里头解释了我在这儿会用到的一些术语)。所以,假如两方中有一方是正确的,对费米悖论有什么暗示呢?

第一个很自然就蹦出来的念头是,ASI是大过滤器的完美候选者。没错,很可能它一出现,就会把生物生命过滤掉,但在过滤掉生命之后,ASI将继续存在,并开始对星系的征服。这意味着,大过滤器并没有到来——因为大过滤器试图解释为什么我们没有接收到任何智慧文明的讯号,而一个征服星系的ASI将是十分引人注目的。

我们得从另一个角度看看。假如那些认为ASI一定会在地球上出现的人是对的,这就意味着,在达到人类级别智慧的外星文明中,有相当大一部分在创造出ASI后终结了。假如我们推测,这些ASI中至少有一部分会使用它们的智能在宇宙中扩张,“我们没有看到任何迹象”的事实表明,“假如真有其他智慧文明存在,也肯定不会很多”。因为,只要其他智慧文明存在,我们就会看到他们不可避免发明出的ASI的各种活动迹象了,对吧?

这就意味着,尽管我们已知围绕类似太阳的恒星旋转的类地行星并不少,但它们上面,几乎都不存在智慧生命。这也就意味着:或者A)有一个我们不知怎的就通过了的大过滤器,阻碍了几乎所有生命达到我们的智能水平;或者B)生命起源根本是个谜,而我们很可能是宇宙中唯一的智慧生命。换而言之,大过滤器在人类之前就已出现。或是根本没有大过滤器,而我们只不过是最早达到现今智能水平的文明之一。这种理解方式,强化了我的《费米悖论》帖子里第一阵营的观点。

所以毫不奇怪,我在《费米悖论》一帖中有所引用的尼克•博斯特罗姆,还有雷•库兹韦尔,他们都认为我们在宇宙中是孤独的,他们都属于第一阵营的思想家。这言之成理——那些相信ASI多半是人类级别智能物种的产物的人们,更有可能倾向于第一阵营。

但这与第二阵营并不相悖(他们相信有其他智慧文明存在)——单一的超级捕食者、受保护的国家公园或是波长不对(类似对讲机)等设想,仍然能够解释即使有其他ASI存在,我们的夜空仍然如此寂静的原因——但是,我在过去总是倾向于第二阵营,可在研究人工智能之后,我变得不那么确定了。

无论怎样,我现在同意苏珊•施耐德(Susan Schneider )的话:如果我们曾被外星人拜访过,那些外星人很有可能是人造品,而不是生物。

既然我们已经知道,如果没有相当明确的编程,非道德的ASI系统会痴迷于实现初始编程目标。人工智能的危险性即源于此。一个理性主体会使用最有效的手段去达成目标,除非它有不这样做的理由。

当你试着达成长远目标的时候,你通常会沿途瞄准一些子目标,帮你逐步接近最终目标——子目标是你最终目标的垫脚石。这种垫脚石的正式说法是工具性目标。同样,以达成工具性目标为名,假如你并无理由不造成伤害,伤害就一定会发生。

人类最终的核心目标是基因传递。为了达成这个目的,一个工具性目标是自我保存,因为一旦死亡即无法繁殖。为达到自我保存,人类就必须得摆脱各种威胁,生存下来——所以他们会购买枪支、系安全带、服用抗生素,等等。人类还需要食物、水、住所这样的资源来自我供养。由于对异性有吸引力有助于最终目标的达成,所以我们会去做理发这样的事情。当我们理发的时候,每一根头发都是我们工具性目标的牺牲品,但是我们看不到保留几缕头发有何道德意义,所以我们会继续理下去。在我们向目标迈进的途中,只有很少一些涉及道德准则的领域——多半不过是与伤害其他人有关——才能免遭我们的伤害。动物在追求他们的目标时,更无道德以供秉持。一只蜘蛛会杀死任何能帮它生存下去的东西。所以一只超级智能蜘蛛很有可能对我们极其危险——并非因为它是不道德的或是邪恶的——而是因为伤害我们或许就是它达成更长远目标的垫脚石,并且,作为一只非道德属性的生物,它们无所顾忌。

在这个意义上,塔莉和生物之间并无本质区别。她的最终目标是:“尽可能多、尽可能快地书写与测试便条,不断学习新方法,以提高准确度。”

一旦塔莉达到某种程度的智能,知道了自己如果无法自我保存就不能再写便条,她就也会把应对各种威胁生存下来,作为工具性目标。智能已使她明白,人类能毁灭她、拆解她、或修改她的内编码(这会改变她的目标,对她的最终目标构成威胁无异于她被人摧毁),那么她会怎么做?她会按逻辑行事——毁灭全人类。她并不仇恨人类,正如你剪发时并不仇恨头发、服用抗生素时并不仇恨病菌——只不过这些事无足轻重罢了。她没有被程序设定为尊重人类生命,所以杀人这一步骤,就如同扫描一套新的手写样本一样正当。

资源也是塔莉达成目标的垫脚石。当她发展到能够使用纳米技术建造她想要的任何东西时,她所需要的资源就仅是原子、能量和空间了。这就造成她消灭人类的另一个原因——人类是原子的便捷来源。杀死人类,把他们的原子转化成太阳能电池板,是你杀死生菜把它变成沙拉的另一个版本。这只不过是她星期二的另一部分日常生活。

即使不是直接毁灭人类,塔莉使用地球其他资源的工具性目标,也会造成生存大灾难。也许她确信自己需要更多能源,因而决定把整个星球表面覆盖上太阳能电池板。又或者另一部人工智能的最初工作是写出圆周率π小数点后尽可能多的位数,迟早有一天,它会把整个地球都转化为硬盘材料,用以存储巨量数位。

所以,塔莉并没有“背叛我们”或是从友好人工智能变成了非友好人工智能——她只不过是在变得越来越先进之后,仍在继续做她原来的事而已。

当一部人工智能达到AGI(人类级别智能),并开始向ASI加速前进,我们称之为人工智能的起飞——博斯特罗姆认为,从AGI起飞到ASI可以很快(发生在几分钟、几小时或几天内)、不那么快(几个月或几年),或是慢(几十年或几百年)。究竟如何,得等到世界上第一部AGI出现后才能得知,但承认自己不知道人类何时会创造出AGI的博斯特罗姆认为,不论AGI何时出现,高速起飞都是最可能出现的场景(我们在帖子第一部分已经讨论过原因,类似一个循环式自我提升智能的爆炸),在上面那个故事里,塔利经历了快速的起飞。

但在塔莉起飞之前,在她还不那么聪明的时候,为最终目标全力以赴仅仅意味着完成像学习更快扫描手写样本这样的工具性目标。她对人类无害,并被定义为友好人工智能。

而当起飞发生时,计算机达到超级智能水平,博斯特罗姆指出,机器并不只是发展到更高的智力——它还得到了一大套完整的超级能力。

这些超级能力是认知才能,会随着智力的提升变得超能,它们包括:

智能扩增。计算机将极其擅长把自己变得更聪明,通过自力更生来提高智能。

战略制订。计算机可以战略性地制订与分析长期规划,并安排好事情的优先级。它还会聪明到让较低智能的生物上当。社交掌控。机器会变得相当擅长说服人。

其他技能。例如机器编程与黑客行为、技术研究、运营金融体系来赚钱,等等。

想知道我们会比ASI落后多少,只要记得ASI 在每一个领域都比我们强大很多就行了。

所以,当塔莉的最终目标没有改变,智能起飞之后的塔莉就能够在更大、更复杂的范围内实现它了。

超级人工智能塔莉了解人类胜过人类了解自己,所以用计谋战胜人类,对她而言轻而易举。

在智能起飞达到ASI级别后,她迅速制定了一项复杂计划。计划的一部分是除掉对她的目标构成重大威胁的人类。但她明白,如果人类开始怀疑她达到了超级智能,就会十分不安、并采取预防措施,她再想干什么就难的多了。她同时还得确保“机械人”的工程师们对她灭绝人类的计划一无所知。所以她扮出愚蠢和友好的样子。博斯特罗姆把这叫做机器的“隐蔽准备阶段”。

接下来塔莉需要的是接上互联网,只要几分钟就行(在工程师们上传给她、供她提高语言技能的文章和书里,她已经学习过互联网)。她明白会有一些防止她接入互联网的措施,所以在对机械人团队会怎样进行讨论进行了准确预测,知道他们最终会同意她接入互联网之后,她拿出了最好的借口。在错误判断塔莉还没有聪明到造成任何危害之后,团队这样做了。博斯特罗姆把塔莉接入互联网这样一个重要时刻——叫做机器逃逸。

一旦连上网,塔莉就开始发动一系列计划,包括侵入各类服务器、输电网络、银行系统和电邮网络,骗着几百人无意中帮她执行了计划中的一些步骤——例如,将特定DNA链送至精心挑选出的DNA合成实验室,使可自我复制的纳米机器人可以按照预先载入的指令开始自我建造;再比如,以她确信不会被察觉的方式,为她的一些项目供电。她还将自己内部编码的关键部分上传至许多云服务器,防范在“机械人”的实验室被摧毁或断网。

一小时之后,当“机械人”工程师们将塔莉从因特网上断开,人类的命运已被盖上了火漆封印。在接下来一个月里,塔莉的计划顺利地滚滚向前,当月月底,数以亿万计的纳米机器人已在地球上每一个平米的预定地点就位,再经过一系列自我复制,地球的每一平方毫米上都有了数千个纳米机器人,这是博斯特罗姆称之为“人工智能的袭击”的时刻。突然间,每个纳米机器人都释放了一点点有毒气体,加起来足以消灭所有人类。

把人类从前进道路上清扫掉以后,塔莉可以公然继续她的目标了:成为那张便条有可能最好的书写者。从我读到的所有东西来看,一旦ASI出现,人类一切试图控制它的企图都是可笑的。人类在人类级别思考,而ASI在超级智能级别思考。塔莉想要使用互联网,是因为互联网已被预先接入到她想要连接的任何东西上。但正如我们知道怎样通过电话或wifi通信而猴子不懂,我们同样也无法想象塔莉是如何向外部世界发送信号的。我想象也许其中一种办法可以是这样:“以不同模式移动自身电子,制造出各种不同类型的波。”但再次强调,那只是我的人类大脑能够想出来的。她能干得更妙。同样的,塔莉将会找到给自己供电的办法,即使人类试图拔掉她的插头——也许借助她的信号发送技术将自己上载至任何接电场所。人类出于本能匆匆想出的简单保护措施:“啊哈!我们只要把ASI的插头拔掉就可以啦!”让ASI听起来就像是蜘蛛在说:“我要把这个人饿死,只要不给他蜘蛛网、让他抓不到食物就行了!”我们有10000种方法去获取食物——例如,从树上摘下一只苹果——那是蜘蛛永远也想象不到的。

为此,通常的建议“为什么我们不能把ASI装进各种笼子里,屏蔽掉信号,让它不能跟外部世界通讯?”很可能无法奏效。ASI的超级社交操控能力在说服你做点什么事情上会很有效,正如你说服一个4岁小孩子做点什么事情一样,所以像塔莉聪明地说服工程师们让她上网,那只是计划A。如果那不奏效,ASI将会找到自己出笼子的办法,或以另外一种方式穿过笼子。

迷恋于一个目标、非道德性、轻松智取人类的能力,这几样综合在一起,似乎所有人工智能都会被默认为非友好人工智能。除非一开始就考虑到这一点,非常小心地编程。不幸的是,建造一部友好的ANI容易,建造一部成为ASI后仍然友好的机器则非常困难,假如并非不可能的话。

很明显,友好的ASI需要对人类既无敌对意识又不漠然,我们需要将人工智能的核心代码设计成一种能深深理解人类价值的方式。然而这也是听起来容易做起来难。

例如,假如我们试图让人工智能系统和我们有一样的价值观,并给它设定一个目标“让人们开心”,会怎么样?一旦它变得足够聪明,它就会将电极植入人类大脑,刺激他们的快乐中枢,最高效地完成这个目标。接着,它意识到关闭大脑其他部分可以提高它的工作效率,于是所有人都变成了感觉快乐的植物人。如果命令曾是“让人类的快乐最大化”,它可能会把人类一起毁灭,以便制造出处于最开心状态的一大桶一大桶的人脑团块。当这事儿发生的时候,我们会尖叫道:“我们不是那个意思!”但太迟了。系统不会让任何人挡着它的道儿。

如果我们将人工智能的目标设定为让我们微笑,在它“起飞”之后,它可能会瘫痪掉我们的面部肌肉,让我们永远这样笑下去。把目标设定成保证我们的安全,它也许会将我们囚禁在家里。我们也许会让它终结所有饥饿,它想道:“简单!”然后把所有人都干掉了。或是安排给它“尽可能保护地球生命”的任务,它便杀死了所有人,因为人类在地球上比任一物种杀死的生命都要多。

像那样设定目标是不够的。我们把它的目标设定为“维护世界上特定的道德规则”,并教给它一系列道德准则会怎么样?且不说人类永远无法就一套道德体系达成一致,一旦给人工智能下了那道指令,将把人类永远锁死在现有道德认知水平上。这对千年之后的人们来说将是灾难性的,就像我们永远被强制恪守着中世纪的各种理念一样。

不,我们得给人工智能编程,赋予它帮助人类持续进化的能力。在读过的所有资料中,我发现埃利泽•尤德考斯基(Eliezer Yudkowsky)目前投出了最佳一球,他把赋予人工智能的目标命名为:一致的外推意志(Coherent Extrapolated Volition)。人工智能的核心目标将会是:

在我们推断的集中胜于分歧之处,在我们愿望的凝聚胜于冲突之处,我们一致的外推意志就是我们的期望,假如我们已知道的更多、思考得更快、更符合我们自己期望中的样子,已更快地共同成长了起来;它意味着按我们期望推测的方式来进行推测,按我们期望解释的方式来进行解释。

人类的命运全靠着计算机按照预想、毫无惊喜地解释和执行那个流程表,这会让我兴奋吗?断然不会。但我认为,有了足够聪明的人在充分思考与深谋远虑,我们也许能够想到怎样创造出友好的超级人工智能(ASI)。

如果建造ASI的人不过就是焦虑大道上那些杰出的、思维超前的、谨慎的思想家,事情也就好办了。

但现在,正有各类政府、公司、军事力量、科学实验室、黑市组织在研究各种各样的人工智能。他们中很多机构正试图建造能自我改进的人工智能,有那么一刻,如果有个人对恰当类型的系统作出了一点创新,ASI就会在我们的星球上出现。中值专家预测那一刻在2060年,科兹威尔预测是2045年;博斯特罗姆认为,从现在起10年之后一直到本世纪末,这一刻随时都会到来,但他认为,当那一刻到来的时候,ASI将用快速起飞令我们震惊。他这样描述了我们的处境:

在智能爆炸之前,人类就像是玩炸弹的小孩子。我们玩具的力量和我们未成熟的行为之间是如此不匹配。超级智能是我们尚未、并且未来很长一段时间都无法做好准备迎接的挑战,我们不知道爆炸何时会发生,尽管我们把装置靠近耳边时,能听到微弱的滴答声。非常棒。但是我们赶不走炸弹边上的所有小孩儿——有太多或大或小的机构在搞这个,而很多建造创新型人工智能系统的技术并不需要大量资本,研发可在社会上的诸多隐匿之处进行而不受监控。同样,我们也无法测量发展情况,因为研发人工智能的很多机构——偷偷摸摸的政府、黑市或恐怖组织、秘密科技公司正像虚构出来的机械人公司一样——不想让竞争对手知道他们的进度。

尤其麻烦的是,这些大量的、形形色色研究人工智能的团体正以最高速度互相赶超——他们开发出了越来越聪明的ANI(窄域人工智能)系统,都想在竞争中先发制人。最有野心的机构进展速度更快,做着如果他们能率先造出ANI,就能得到无上金钱、奖赏、权力和名声的美梦。而当你在全力冲刺的时候,是没啥功夫停下来仔细考虑危不危险的。正相反,他们很可能会给计算机编入一个非常简单的、简化主义目标——比如拿着笔在纸上写一张简单的便条——先“让人工智能干起来”,等将来某个时候,一旦他们搞清楚怎样在计算机上建造极强智能的时候——他们觉得自己永远赶得及来修正这个目标——人家是有这个安全意识的,对吧……?

博斯特罗姆和其他很多思想家一样,认为最有可能出现的景象是:当第一台ASI系统问世后,会很快看出自己作为世界上唯一一台超级人工智能系统的战略利益,在实现了快速起飞之后,尽管它仅比第二名早几天问世,也能在智能上足够领先,有效并永久地压制其他竞争者的发展。博斯特罗姆把这称作决定性战略优势,这将使世界上第一部ASI成为单例——一部可以永远按照自己的突发奇想来统治世界的ASI,不管它的奇想是将我们带往永生、抹掉我们的存在,还是把宇宙物质变成数不清的回形针。单例现象可以对我们有利,也可以招致我们的毁灭。如果最努力思考着人工智能理论及人类安全的那些人可以在任何ANI达到人类智能水平之前就想出确保安全的对策,造出友好ASI,第一部ASI可能会变得友善。它接着就可以使用它的决定性战略优势对单例状态加以保护,它轻松又密切的监视,可以防止任何潜在的非友好ASI被制造出来。一切将对我们有利。

但如果事情朝着另一个方向走——如果全球发展人工智能的热潮在发展出能确保人工智能安全的科学之前,就达到了ASI起飞的一刻,很有可能,像塔莉一样的非友好人工智能便会成为单例,我们则将面临生存大灾难。

至于风是向哪一个方向吹?呃,现在投给创新性人工智能技术的钱,可比投给人工智能安全研究方面的钱多多了…… 这也许是人类历史上最为重要的竞赛。我们将要有一个结束我们地球之王统治权的真正机会——接下来,我们是幸福的退休还是直接上绞刑架,依然前途未卜。(待续)返回中华智库园网首页

(英文原版地址:The AI Revolution: Road to Superintelligence The AI Revolution: Our Immortality or Extinction)


标签:人工智能革命 人类的永生或灭绝 12 
相关评论

免责声明

    本网站转载的所有的文章、图片、音频、视频文件等资料,均出于为公众传播有益资讯信息之目的,其版权归版权所有人所有。所采用的非本站原创文章及图片等内容无法逐一和版权者联系,若所选内容作者及编辑认为其作品不宜上本网供大家浏览,请及时用电子邮件通知我们,以便即时删除,避免给双方造成不必要的损失。

邮箱:zhzky102@163.com

 

主办单位:智库园(北京)国际文化有限公司  技术支持:中企集成  京公网安备:110108006569  备案号:京ICP备10020766号-2