|
楼主 |
发表于 2011-10-15 02:35:51
|
显示全部楼层
如果只是从数据处理能力上来分析,当今已经有计算机的处理速度能和人脑处理速度相当,甚至超越,但是人脑和当今电脑的处理方式不同,电脑是线性处理,而人脑是跳跃处理(大概是这个词),最重要的是联想这一功能,现在还没有任何软件和计算机硬件能模拟的,就连简单的认知这个人类很简单的功能,现今计算机都还没有完全学会。这就决定了单单以单一或多枚处理芯片来模拟大脑思维,那是不可能的。现在电脑都是冯·诺依曼结构,如果冯诺依曼瓶颈不突破,人工智能是能难实现的。先解决硬件上的改变吧,这个IBM已经走在前面了,神经网络处理器,模仿人类大脑结构进行设计的芯片。只有硬件发展了,软件才能跟上。现在谈有思维,甚至有个人意识的人工智能还早着呢。
回复 9# 樱花飘雪
现有的技术在串行计算机上模拟并行运算确实效率很低。自学习神经网络模拟人脑运行和进化过程,可以做到与人脑实现的无差别模拟。我最高效的SVM算法也只能达到几百条浮点运算模拟一个脑细胞。要充分利用晶体管的运算,的确需要重新设计非冯·诺依曼结构体系的运算芯片,那个IBM的神经网络处理器的科技新闻我看过,其大致原理也知道。
我的意思是类人智能的硬件性能已不是障碍,关键在软件实现上,毕竟1G频率的一兆晶体管就有1P位每秒的运算量,而一兆晶体管的芯片才十块钱。我的并行算法现在只能用现有芯片和计算机结构体系来模拟,如果完全改造在芯片中实现,我只有很原始的大致规划设想,而且也没有这个开发生产资金实力。 |
|