关灯 特大 直达底部
亲,双击屏幕即可自动滚动
正文 第407章 奥创的所作所为
托尼身为一个孤儿,他在外表上看起来乐观豁达,幽默风趣,可很少有人知道其实他的精神非常的脆弱且敏感。▲-八▲-八▲-读▲-书,◇o≧



在经历了纽约的齐塔瑞入侵大战之后,亲眼目睹了传送门另一头的无数外星人大军,托尼感觉到了特别的无助和无力,因此想要保护自己亲人、朋友和地球这个家园的他,决定开始研发一种新的战争机器。



这项秘密的研发计划,托尼并没有通知神盾局,也没有告诉陈重,而是找到了另一位天才班纳博士。



这两位世界上顶级的天才科学家联合在了一起,以钢铁盔甲的战斗能力为标准,在这种新型的机器人的基础上,加入了最强大的电脑ai人工智能,赋予了它保护地球和人类的思想。



如果托尼在事先跟陈重商量的话,那么见识过人工智能,并且知晓其中害处的陈重,肯定会极力的劝说和阻止托尼的这个计划,可惜他并不知道,所以终于出现了一场惨烈的祸事。



在这个漫威世界之中,人工智能出现的时间较晚,所以并没有人探讨过相关的利弊问题,可来自其他世界的陈重,却早就知道这并不是一件好事。



人工智能的出现,可以说给人类的生活带来了非常大的便利,但同时也让不少人为此担忧当机器具备了人类的情感、逻辑和判断能力后,人类会不会被机器控制,从而导致人类的毁灭?



为了人类的安全,所以那些相关领域的科学家们,制定了限制机器人和人工智能的三大定律。c八』c八』c读』c书,■o↑



第一定律机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管。



第二定律机器人必须服从人给予它的命令,当该命令与第一定律冲突时例外。



第三定律机器人在不违反第一、第二定律的情况下要尽可能保护自己的生存。



除了这三条定律之后,此后又补充了一条零号定律在保护人类整体利益的前提下,以下三条定律才存在。



从表面上看,有了这四条定律之后,拥有人工智能的机器人就绝对没有可能反叛,进而伤害到人类,但事实真的会如此么?



答案当然是否定的,因为这三定律加上零定律,看来堪称完美,但是,“人类的整体利益”这种混沌的概念,连人类自己都搞不明白,更不要说那些用0和1来想问题的机器人了。



可以说机器人和人工智能并没有什么问题,科技发展的本身也不是问题,但人类逻辑概念才是真正的问题。”



钢铁侠托尼和绿巨人班纳博士,他们两人研制出的战斗型人工智能机器人,被命名为‘奥创’,在研发的时候,他们也毫不例外的为奥创设定了最基础的几条规则,其中大部分内容都跟地球上的四大定律差不多。



奥创被制造出来的目的是为了守护世界的和平,但是它从一诞生就已经是个错误了。



因为在奥创的认知和逻辑运算中,它很快的就判断出一件事,既可以毁掉,并且又能毁灭地球和人类的绝对不是齐塔瑞大军,也不是其他的邪恶人物,而是人类自己。



这样就出现了一个难以解决的问题,奥创要保护的人类,就是毁掉地球的罪魁祸首,所以他必须要消灭的敌人,也正是人类。



当实验室里的奥创初型机叛逃之后,托尼和班纳博士并未将这件事泄漏出去,因为在他们看来,只是逃走了一个拥有了自我意识的机器人逃走了而已,只要将其抓回来就万事大吉了。



可惜托尼和班纳博士都小看了奥创,因为它在逃到了墨西哥之后,第一时间就拿下了一家机器人制造工厂,并且将那里打造成了一个生产基地。



据说一只蟑螂一年可繁殖近万只后代,最多可达十万只,这已经算是恐怖的繁殖速度了,但是相比于奥创的机器人制造基地的生产速度来说,那也算不得什么。



奥创以本体被模版,全力以赴的生产着同类的机器人,在短时间内就制造出了超过上千台拥有人工智能的机器人。



如果不是因为材料和资源的不足,估计等到钢铁侠若你和绿巨人班纳博士赶到的时候,他们面对的就是不计其数的机器人大军了。



但即便是这样,上千台拥有人工智能的战斗型机器人,也足以让两人震惊了。


本章未完,点击下一页继续阅读

(1/2)
  • 加入收藏
  • 友情链接