斯蒂芬*霍肯的话,毫不客气,一旁的阿达民则不紧不慢的跟话:
“教授,这么多年,您的观点始终没变呢。”
“因为事实如此。”
不知不觉,走到核心机房的尽头,钻进又一条狭窄阴森的检修通道,其间,与两三具多功能机器人擦肩而过,转过拐角,沿错综复杂的管线一路向下,两具替身逐渐接近、进入核心机房的配电、安保机构。
与空间开阔的机房不同,主要承担电力载荷调整的配套机构,空间相当局促,阿达民与教授在这里略作休息,继续刚才的对话。
休息,对“替身”是毫无必要,但使用替身机器进行操控,也并非一件很轻松的事。
“阿达民阁下,关于强人工智能的研发动机,稍微站在您的立场上想一想,结合北大陆的形势,也不难猜到一二。
尽管如此,对您这一决策的鲁莽,我还是深感震惊。”
“有那么可怕吗?
毕竟,对‘强人工智能’,这么一种划时代的新事物,即便791机构的专家都不敢说认识的有多透彻,您凭什么认为,强AI不仅极度危险,进而必定会反噬其创造者——也就是我们人类自身?
除此之外,有一些情况您也未必知晓,关于强人工智能的安全性,我本人,同样报以警惕,所以才会规划NEP_787等相关机构,展开‘监控型强AI’的平行研究。”
“监控型强AI,那是什么?
哦……想必是一种‘用来监控强人工智能的强AI’,呵,阿达民阁下,这种策略您还真想得出来,不过,这不是太愚蠢了吗。”
“何以见得。”
“用强人工智能去监控强人工智能,如此睿智的创意,啊?
好吧,虽然我并不清楚,所谓‘监控型强AI’的基本架构与运作逻辑,就算这种东西,能有效监控目标强AI的一举一动,确保其不会反噬创造者罢。
那么,您又打算用什么来监控这种‘监控型强AI’,再创造出第三个来监控第二个?
如此一环扣一环,到最后,任凭花费天文数字般的资源,即便链条里的所有监控型强AI都恪尽职守,最后一个‘监控型强人工智能’的安全性,却还是无法得到确证,您忙来忙去,搞出这种监控链条,又是何必呢。”
“教授,您言之有理,这的确是一个问题。”
阿达民的回应,出乎斯蒂芬*霍肯的意料,他在替身机器里扬了扬眉毛。
而方然呢,则慢条斯理的继续陈述:
“用强AI监控强AI,只是一种权宜之计,并非治本的办法,这一点,我认为我们还是可以达成共识的。
那么回到最初的问题,强人工智能,为何必定会对人类构成重大威胁,可以说说吗。”
“这并不难理解,本质上,是一种智力层面的压制效应。
注意,从一开始,我本人就不认为,强人工智能这类事物,一定会天然的对人类抱有敌意,除非出于战争、恐-怖袭击等不可告人的动机去创造、并使用,才会是这样,但这超出了今天讨论的范畴。
阿达民阁下,您一手策划、创造的强人工智能,总不至于是以‘灭绝人类’为目标,”
这谁能说的清呢,闻听此言,方然心头一紧,
“换言之,以寻常动机创造出来的强AI,一开始并不会对人类构成直接的威胁,但,随着时间的推移,强人工智能的‘自我意识’逐渐觉醒,拥有自己的思维与头脑后,情况可就难说的很了。
一旦拥有自己的思维,头脑,无须直接对人类抱有敌意,仅仅出于追寻其设定的目标,强人工智能就可能对人类带来灭顶之灾。”
斯蒂芬*霍肯的话,乍一听起来,并不是在危言耸听,他接下来还举出实例:
某强人工智能,以尽可能推广复印纸、展示广告词为行动目标,结果呢,该强人工智能迅速灭绝了人类,整合所有资源,让“请使用XX牌打印纸”的广告语刷遍了整个太阳系,连一扫而过彗星都未能幸免。
即便出于“完全无害”的动机,强人工智能,由于与人类根本不是一类,能力又远超人类(这可想而知),很可能无意间就毁灭了世界。
摹想的案例,看起来,很有一种怪异的说服力,方然则岔开话题:
“那么,霍肯教授,我们难道就不能用各种手段,限制强AI的能力,使其仅仅为人类的福祉而运作吗。”
“想法很好,但,一点也不切实际。”
教授大摇其头:
“设想这样的强人工智能,这么说吧,这样‘能力受到限制,无力灭绝人类’的所谓强人工智能,和‘既聋且瞎的翻译’有何区别?
人工智能,如果是指传统的、代替人类进行枯燥重复劳动的那种,旧时代简直遍地都是,但作为管理员,阿达民阁下,您肯定一清二楚,那种AI的能力,实在可怜,根本无法代替人类去进行严肃的科学研究。
强人工智能,如果我没搞错的话,NEP大区正在进行的相关研究,的确有成效:
一个名副其实的‘强人工智能’必须具备自主思维,说白了,不能有人为设置的条条框框,否则只会得到弱AI,失去研究的意义。
对强人工智能而言,或迟或早,在智力层面超越人类,是一种必然,到那时,不论您和您的科学家们,主观上想不想限制其行动,客观上都注定是做不到。
否则,说句一针见血的话:
倘若强AI的企图,能被一群人轻轻松松消弭于无形,那么您要这种强AI,又有何用。”
逻辑严密,几乎找不出破绽,站在斯蒂芬*霍肯的“替身”对面,对这位毫不客气、言语犀利的学者,方然确乎感到某种压力。
但,身为阿达民,会被教授这一番话说服;
那却是不可能的。
多少年来,立志永生,为此而在IT领域深耕多年,做出“研发强人工智能”的决策,方然自有万全的考虑。
面对强人工智能,当然不能一叶障目的认为,强AI毫无威胁,但这种威胁,是否会如斯蒂芬*霍肯认为的那样严峻呢,自己却另有迥异的见解。