刚刚去世的理学家霍金,就一直在警告人类与人工智能,对于人类而言,会是一场
大的灾难,
其本的原因也就在于,人类
本控制不了人工智能,人工智能一旦
世,就好比地球上诞生了一
新的
一般,
据优胜劣汰的法则,这个优等
,如果不能被人类控制,必然会选择淘汰人类这
落后
。而人类也将没有丝毫的抵抗力,就仿佛当年
洲的土著人,面对漂洋过海而来的,带着火药枪的西方人没有任何的抵抗力一样。
而特斯拉的创始人,艾隆斯克,也一直致力于抵制人工智能,艾隆
斯克认为人工智能应该止步于自动驾驶这一类的应用级别,而一旦拥有了人类一般的心智,必然会产生消灭人类的野心。
即使是最伟大的理学家,以及站在科技前沿的最开明的企业家,都对人工智能有着
的恐惧,人类对于人工智能控制的无力,在人工智能前,
的脆弱
可见一斑。
人工智能的专门程序,会先于真正的能够自我思考拥有心智的人工智能产生,人类目前便在发展人工智能专门程序这一步,还于非常
浅的状态,不过确有必要,为能够自我思考,拥有先
的人工智能的诞生而
好准备,有的国家甚至已经开始制备机
人相关的法案。
而拥有心智的人工智能,却会更先于能够遵守机人三大法则的人工智能诞生,因为遵守机
人三大法则的人工智能,对于
理的要求十分之
。拥有心智的人工智能,就仿佛一个小孩,而能够遵守机
人三大法则的人工智能,就相当于一个训练有素的
理学家。
所以人类必然面对一个十分冲突的问题,那就是拥有自主思维的人工智能会先与遵守机人三大法则的人工智能产生,这就好比在成
为一个
理学家之前,必须经历孩童的阶段一般。但这却会给人类的前途带来
大的风险,而人类却
知,在商业利益的面前,一旦有心计的人工智能诞生,是阻止不了它在全世界的推广的,那个时候,机
人对于人类,是敌是友,不得而知。
一切的源便在于,机
人三大法则,虽然说起来简单,但是要真正的植
计算机之中,让计算机完
的遵循,这是一件史诗一般的无比浩大的事
。
这是乔布斯在遇到李尘的时候无比激动的原因,一旦能够实现机人三大法则,人类在发展人工智能的路上,便再也没有后顾之忧。
“量计算机,这是很关键的一步棋啊。如果能用上量
计算机的话,那么用不了几台,甚至只用一台就可以让火龙系统发展成熟,也可以让火龙系统保持最
度的机密;而如果用传统的超级计算机的话,那么
照现在的计算能力,必须要租借十几台甚至上百台,同时工作才行,超级计算机的审批程序非
本章尚未读完,请击
一页继续阅读---->>>
本章未完,点击下一页继续阅读