第474章 超级计算机(1/2)

加入书签 留言反馈

刚刚去世的理学家霍金,就一直在警告人类与人工智能,对于人类而言,会是一场大的灾难,

本的原因也就在于,人类本控制不了人工智能,人工智能一旦世,就好比地球上诞生了一新的一般,据优胜劣汰的法则,这个优等,如果不能被人类控制,必然会选择淘汰人类这落后。而人类也将没有丝毫的抵抗力,就仿佛当年洲的土著人,面对漂洋过海而来的,带着火药枪的西方人没有任何的抵抗力一样。

而特斯拉的创始人,艾隆斯克,也一直致力于抵制人工智能,艾隆斯克认为人工智能应该止步于自动驾驶这一类的应用级别,而一旦拥有了人类一般的心智,必然会产生消灭人类的野心。

即使是最伟大的理学家,以及站在科技前沿的最开明的企业家,都对人工智能有着的恐惧,人类对于人工智能控制的无力,在人工智能前,的脆弱可见一斑。

人工智能的专门程序,会先于真正的能够自我思考拥有心智的人工智能产生,人类目前便在发展人工智能专门程序这一步,还于非常浅的状态,不过确有必要,为能够自我思考,拥有先的人工智能的诞生而好准备,有的国家甚至已经开始制备机人相关的法案。

而拥有心智的人工智能,却会更先于能够遵守机人三大法则的人工智能诞生,因为遵守机人三大法则的人工智能,对于理的要求十分之。拥有心智的人工智能,就仿佛一个小孩,而能够遵守机人三大法则的人工智能,就相当于一个训练有素的理学家。

所以人类必然面对一个十分冲突的问题,那就是拥有自主思维的人工智能会先与遵守机人三大法则的人工智能产生,这就好比在成为一个理学家之前,必须经历孩童的阶段一般。但这却会给人类的前途带来大的风险,而人类却知,在商业利益的面前,一旦有心计的人工智能诞生,是阻止不了它在全世界的推广的,那个时候,机人对于人类,是敌是友,不得而知。

一切的源便在于,机人三大法则,虽然说起来简单,但是要真正的植计算机之中,让计算机完的遵循,这是一件史诗一般的无比浩大的事

这是乔布斯在遇到李尘的时候无比激动的原因,一旦能够实现机人三大法则,人类在发展人工智能的路上,便再也没有后顾之忧。

“量计算机,这是很关键的一步棋啊。如果能用上量计算机的话,那么用不了几台,甚至只用一台就可以让火龙系统发展成熟,也可以让火龙系统保持最度的机密;而如果用传统的超级计算机的话,那么照现在的计算能力,必须要租借十几台甚至上百台,同时工作才行,超级计算机的审批程序非

本章尚未读完,请一页继续阅读---->>>


【1】【2】

本章未完,点击下一页继续阅读

章节目录