第474章 超级计算机(1/2)

点击网址进入新版阅读页:www.48txt.com,全新UI设计,增加会员书架,阅读记录等功能,精彩不容错过,感谢大家长期以来对本站的大力支持。

刚刚去世的物理学家霍金,就一直在警告人类与人工智能,对于人类而言,会是一场巨大的灾难,

其根本的原因也就在于,人类根本控制不了人工智能,人工智能一旦出世,就好比地球上诞生了一种新的物种一般,根据优胜劣汰的法则,这个优等物种,如果不能被人类控制,必然会选择淘汰人类这种落后物种。而人类也将没有丝毫的抵抗力,就仿佛当年美洲的土著人,面对漂洋过海而来的,带着火药枪的西方人没有任何的抵抗力一样。

而特斯拉的创始人,艾隆马斯克,也一直致力于抵制人工智能,艾隆马斯克认为人工智能应该止步于自动驾驶这一类的应用级别,而一旦拥有了人类一般的心智,必然会产生消灭人类的野心。

即使是最伟大的物理学家,以及站在科技前沿的最开明的企业家,都对人工智能有着深深的恐惧,人类对于人工智能控制的无力,在人工智能前,深深的脆弱感可见一斑。

人工智能的专门程序,会先于真正的能够自我思考拥有心智的人工智能产生,人类目前便在发展人工智能专门程序这一步,还处于非常粗浅的状态,不过确有必要,为能够自我思考,拥有先进的人工智能的诞生而做好准备,有的国家甚至已经开始制备机器人相关的法案。

而拥有心智的人工智能,却会更先于能够遵守机器人三大法则的人工智能诞生,因为遵守机器人三大法则的人工智能,对于伦理的要求十分之高。拥有心智的人工智能,就仿佛一个小孩,而能够遵守机器人三大法则的人工智能,就相当于一个训练有素的伦理学家。

所以人类必然面对一个十分冲突的问题,那就是拥有自主思维的人工智能会先与遵守机器人三大法则的人工智能产生,这就好比在成长为一个伦理学家之前,必须经历孩童的阶段一般。但这却会给人类的前途带来巨大的风险,而人类却深知,在商业利益的面前,一旦有心计的人工智能诞生,是阻止不了它在全世界的推广的,那个时候,机器人对于人类,是敌是友,不得而知。

一切的根源便在于,机器人三大法则,虽然说起来简单,但是要真正的植入计算机之中,让计算机完美的遵循,这是一件史诗一般的无比浩大的事情。

这是乔布斯在遇到李尘的时候无比激动的原因,一旦能够实现机器人三大法则,人类在发展人工智能的路上,便再也没有后顾之忧。

“量子计算机,这是很关键的一步棋啊。如果能用上量子计算机的话,那么用不了几台,甚至只用一台就可以让火龙系统发展成熟,也可以让火龙系统保持最高度的机密;而如果用传统的超级计算机的话,那么按照现在的计算能力,必须要租借十几台甚至上百台,同时工作才行,超级计算机的审批程序非常严格不说,要花多少钱也不是问题,但是最关键的是涉及到这么多超级计算机,想不被监控是不可能的。”李尘喃喃自语。

“所以我必须要争取到量子计算机,不知道能从叔叔那边得到多少消息?”李尘甩头,这才回到现实之中。

本章节未完,点击这里继续阅读下一页(1/2)