新时代的人类文明,不再是一整体,而是被大区边境线与海洋分割成一片片的支离破碎。
在这样的时代,知识,人类文明赖以存续的根本,也不再是全人类共同的财富,曾经被INTERNET组织到一起的科学界,分崩离析,要弄明白“二号机”的证明过程是否原创,是一件很难办到的事。
单凭NEP大区的研究者,数学家们,只能轻易判断该证明是对是错,而无法判断其价值。
进一步的,对于“强AI二号机”究竟是否走出了至关重要的一步,也没有办法给出完全准确的判断。
对真相一无所知,审视证明,NEP_705、706机构的数学家们,充其量只是将这一证明作为同行的工作成果来看待。
而NEP_791研究机构里,则完全是另一派氛围。
如何看待“强AI二号机”的新证明,分歧,在研发组的科学家之中,确乎存在着,以数学家为代表的一些人,对该证明的“产生过程”很感兴趣,却因为阿达民的权限管理而无从窥测“二号机”的内部运作,只能在一旁抓耳挠腮。
与此相比,莱斯利*兰伯特等学者,也是研发组中负责研发的一些成员,态度就谨慎得多。
兰伯特先生本人,更在最新的报告里直言不讳,认为“强AI”的能力,应该不止于“仅仅给出一些人类早已知晓、至少是有能力知晓之结论的证明”。
身为这一项目的直接参与者、和最终的决策者,方然最想知道的,则是“这一结论究竟有没有被人证明过”,当然,他也清楚现在这只是一种奢望。
那么“强AI二号机”,在初号机基础上,大幅度提升算力,改进核心框架,从一开始就以长期运行为目标而设计的体系,究竟有没有达到、甚至超越人类的智力水平呢,甚至足以担当大任,承担一些更重要的工作。
这一点,单纯观察“新证明”,是很难判断的。
退一步的考虑,即便“强AI二号机”给出的,是人类尚未证明、甚至尚未发掘出来的数学结论,单论其水平,用不着咨询705、706机构的数学家,方然自己就能看得出来,这一命题的难度并不算高。
稍微花一些时间,回忆以往学过的数学知识,一边学习、一边研究,自己也能在“至多几周内”给出正确的证明。
换句话说,即使“二号机”证明的这一结论,以前无人证过,也并不能说明什么。
人类完全有能力将其证明,无非出于冷僻、价值有限等方面的原因,以前一直没有什么研究者去较真,严肃的给出证明并发表,仅此而已。
“强AI的能力应不止于此”,莱斯利*兰伯特的话,在方然脑海中悄然浮现,双眼盯着屏幕,他不得不认为这话有一定的道理:不管怎么看,似乎具有自主思维,能在没有外部指令的情况下证明某些结论,这样的AI也不像是只有这点本事。
是运行时间太短,AI还没有完全进入状态、完成演化吗,有这种可能性。
思来想去,一时间没有太好的办法,就在“二号机”持续运行期间,出于赶时间、避免窝工的考虑,方然仍制定了“强AI三号机”及相关配套工程的第一期预算。
不管怎样,从“初号机”到二号机的验证流程,的确说明,运行在NEP_791的两台“强人工智能验证机”,乃至其他机构的监控AI,其行为特质都与人类以往创造的任何一种AI都不尽相同,而有独特的应用价值。
不管这样的系统,理论上的能力极限有多高,以NEP_791研发组的分析,其在诸多领域中的应用价值都是可以期待的。
当然,这里面也包括:
替代当前的通用型AI,执掌偌大一个东北太平洋大区。
并未对研发组的专家透露过这一点,方然的设想,关系到NEP大区的管理权限,进而关系到自己的阿达民之地位,交给别人去做是万万不可。
但相关的基础工作,不可能事必躬亲,而是以一系列预研项目的形式,分发下去。
对即将动工的“强人工智能三号机”,思虑再三,方然想起了很久之前看过的书籍,决定将其命名为“盘古”。
如果不出意外,或者说,如果一切正如自己所预料,到第三台强人工智能验证机上电运行时,自己,就将掌握这世上从未有过的强大力量,虽然吉凶未卜,但有一点却确凿无疑,那,必定将是一个崭新时代的开端。
开天辟地,陌生的词汇倏忽一闪,让四十四岁的男人心头战栗。
强人工智能,假使那终究可以实现的话,会给人类、给自己带来一个怎样的未来,现在他根本就看不清楚,讲不明白。
但某种直觉,却仿佛一下子穿透了未知的迷雾,指引着自己,迈向那将来未来的明天。
这是唯一的路,倘若要想从残酷的大区之竞争,从人类最后一次自相残杀的生死斗中幸存,不论自己,还是这世上的每一个人,除亲手开启那光芒璀璨、杀机四伏的潘多拉魔盒外,根本也别无选择。
相较于自己,在命运十字路口踯躅的阿达民,又有多少人,从一降生时起就更加不幸,甚至连这选择的资格、机会,都根本就不曾有过。
和毫无资格的无数人相比,自己,是何等的幸运,幸运的降生在这天翻地覆时代的前夜,因此而得以抓住那渺茫之极的一线希望,跌跌撞撞、凶险万分的走到今天,甚至还有可能,去触碰到那永不下车的神迹。
心下再无一丝迟疑,浏览报告、确认二号机已导入FSCIM标准之物理体系后,方然接通与莱斯利*兰伯特的联系。
“兰伯特先生,我有一个不太成熟的设想。
正在运行的‘强AI二号机’,‘混沌’,是否能接收一些外来指令?”
“原则上可以,只是,现在系统还在自我演化、封闭运行中,导入指令可能产生一些预料之外的情形,但应该不严重。
毕竟这也是系统的设计功能,没有指令约束的AI,我们打一开始就不敢上电、联调的。”
“很好,所见略同。
那么为验证其能力,让‘混沌’尝试证明一些命题,如何,譬如……费马大定理?”