对兰伯特的动机,妄加揣测,方然这么做并没有什么恶意,至少非其本意。
但,莱斯利*兰伯特却明显不是这样理解,而是停住脚步,站在一排黑黢黢的机柜面前,有点挑衅的直盯着阿达民看。
钢筋铁骨的替身,伫在眼前,对这样一具钢筋铁骨的身体发飙,不论从理论上、还是从实战上都毫无意义,意识到这点,兰伯特先生喉头微动,在短暂沉默中重新组织了自己的思路,而后强硬的提出抗议:
“这一点也不有趣,阿达民先生。
身为科学技术的研究人员,自然,应该对科学抱有一种使命感、责任感,但,倘若我们也稍有闲暇,考虑自己的前途命运,这种心理活动难道值得您来横加指责,或者站在高地上恣意嘲笑?
同样是为自己的命运而挣扎,为什么您无须被指责,我们,就得背上一种‘只顾自己’的恶名呢,就因为您的机器大军手里有GUN吗。”
“正是如此。
只是兰伯特先生,我来这儿,并不是为找一个随便什么人来吵架;
如果刚才的话令您不快,我收回,并向您道歉。
但我也得说明,自己刚才为什么样那样讲,说真的,身为偌大一个NEP的管理员,站在全局角度观察、思考这前所未有的时代,我本人的眼光,头脑,在您和您的同僚眼里,真会如此不堪,而须诸位来担忧一个管理员的未来吗。”
“我提出的只是建议。
或者,如果您不想听到‘警告’这样的词汇,称之为‘提醒’也可。”
管理员的未来,不消说,不会是莱斯利*兰伯特的关注焦点,他真正关心的,是NEP,人类世界,乃至人类文明的前途命运。
但以现在的语境,他并不需要刻意强调这一点,于是微微扬起头颅:
“如果我本人,以及一干同僚的猜测没错,您的计划,大概是借助一系列‘认知过程’、‘自主式AI’等研究成果,尝试研发出能够自主进行创造性研究的AI,借此实现NEP大区的实力飞跃,进而达成更长远的目标。
那么这一规划的问题在哪里?
首先,不得不提到一点,即便阿达民先生、您想象的那种AI被开发出来,在短时间内,或许也就是十年、甚至五年内便进入实用化,这种AI也不过是将将能替代人进行科学研究,将我们这些人扫地出门,仅此而已。
基于人类世界的现状,基础科学的发展,停滞不前,即便用AI代替人类,也几乎无法取得一些关键的、划时代的突破。
至于说,制造出强AI,推动基础科学的发展:
像您这样的人物,该不会有这么一种不切实际的幻想,难道不是吗?
制约人类科学技术发展的,并非聪明才智,而是盖亚与一切相关资源的量级,没有足够的资源、能源甚至空间,这些因素,现阶段无法用任何手段加以改善,更无法规避,AI在这方面也一样无能为力。”
“似乎是这样,不过,我一开始也没有这种奢望。”
莱斯利*兰伯特的话,十分浅显,方然便点一点头,承认这位科学家说的很有道理。
“强AI”,不论传统学术界的定义如何,即便被研发出来,缺乏客观条件的支持,也无法凭空推动科技的进步。
“没有,那么这很明智。
但不管怎么说,‘自主式科研AI’能否推进科技,那毕竟也是一个很长远的问题,眼前的危机,才更值得警惕:
出于种种考虑,研发具有创造性、探索性思维的人工智能,AI一旦这样的被研究出来,阿达民先生,您是否能确定,凭现有的科技、武器与战力水准,自己必然能掌控这AI,而不会被自主决策的AI所消灭?”
“AI的反叛,是的,这是一个想当棘手的问题,但,可以提前采取——”
“没有什么‘提前采取’!
恰恰相反,一旦‘具有超越人类的科研能力’,这样的AI被制造出来,其行为与动机,就注定会脱离人类的掌控,这并非安保手段、武力强弱的定量问题,而是由双方‘智力’差距所决定的,无解的困局。
试想一下,阿达民先生,您之所以拍板这样宏大的计划,目标,正如刚才亲口所言,绝不是为了获得‘能够与人相比拟’的那种AI。
投入大量资源,消耗时间,只为了得到一些模仿的产物,根本得不偿失。
此类研究的根本动机,显而易见,是期望获得能力超越人类、甚至远远超越人类的‘强AI’,目的,并非研究什么自我意识、或者要创造出这样的自我意识,而是要在人类专有的科学技术研究领域,制造出一个碾压现今所有人的利维坦。
这样的东西,一旦真被研究出来,凭你我这种人类的头脑、意识,恐怕连预测其行为、判断其动机都做不到;
有怎么能奢望,凭借一些儿戏般的安保手段,便能将其禁锢起来,为己所用。”
滔滔不绝,莱斯利*兰伯特的一番直抒胸臆,脸都有些涨红。
至于他要表达的意思,无需聚精会神,方然也能明白,事实上,自从掌控NEP大区之初,自己便一直在琢磨事关重大的难题。
创造性思维,具有这种特质的AI,先不论通过什么样的手段去研发,一旦成为现实,那么,除非这种AI的能力与人类相仿,一旦其能力远超人类,再加上其自身“思维”、“决策”的无可预测,人类就会有灭顶之灾。
这种风险,只要着手开展此类研究,就一定会出现。
不仅必定出现,应对之策,事实上也是不存在的,并不会因为一些莫须有的“拉电闸”、“核弹爆轰”的手段而改变。
一切的缘由,完全在于AI的“自主意识”,其危害之大,只要设想一个能力超卓、却与同类决裂的人类,能对人类世界造成多么大的破坏,然后将这种威胁放大若干倍,便不难想象到时的情形。
面对特立独行、完全漠视人类利益的威胁,一切应对之策,在强AI的眼里都会十分可笑……