于是开始上课,其实对于并行计算,孙彧又有一些想法,集中与分布可谓计算机发展史上一对互相转化的矛盾,每一个分布式的节点,随着规模增加,必然会出现集中的倾向,而每一个集中的中心,随着网络或者互联技术的发展,又会变得分布起来。
当然现在计算机互联技术还不是那么发达,不论是带宽还是传输率都不是那么的令人满意,或者说并不能满足分布计算应该有的指标,所以,在单机甚至指令级上试图实现或者说研究并行计算,很有些螺蛳壳里做道场的意思,孙彧觉得这并没有什么前途,没有超算那么就集群,然后是分片,map/reduce,这些才是并行处理大数据的正确途径。
或者,换句话说,孙彧觉得在CPU级也是可以使用一个调度系统的,毕竟每一条机器指令,到了CPU执行的层面,还是可以细分的,一细分,就有了调度的余地。
至于超大规模集成电路设计导论,大体上又是把数字电路、计算机组成原理和计算机体系结构综合起来复习了一遍,当然,并行计算也得讲讲这些内容,真是万变不离其宗。
不过,孙彧的想法却又变成了可以把操作系统写到芯片上,实现一个内核级的指令与数据分离的架构,这样可以简化应用程序的开发难度。
当然这也可以算是一种哈佛架构,只不过只是对于操作系统来说的,而对于应用程序,却还是冯诺伊曼结构的,或者说,应用程序并不需要考虑CPU和操作系统用的什么架构,编译程序也不需要。
有自己的东西,想怎么折腾就怎么折腾,孙彧浮想翩翩的开着小差。
然后是神经网络和模式识别,说到底模式识别就是两大任务,一则拟合,一则分类,而神经网络也是可以用来解决这两类问题的,只不过这个时候用神经网络并不比其他方式更有优势,如果不是更加劣势的话,所以,神经网络至少在这个时候还是颇有些声名狼藉的,毕竟人们曾经对神经网络抱有那么大的希望,所谓希望越大,失望越大。
但是不管怎么说,神经网络仍然是死而不僵败而不倒,于是系里继续开着这门课,只不过老师讲课也算是乏善可陈,介绍了一些基本概念之后,主要也还是讲讲在模式识别上的应用,于是模式识别课就不讲神经网络的内容了。
所以,虽然梯度反向传播提出有些年头了,但是似乎并没有人真正应用到神经网络的自学习当中,原因当然挺简单的,没有足够规模的节点,神经网络只会是一个玩具,但是一直以来计算机硬件发展并不足以支持大规模的神经网络模型,至于超算......只能说有更重要的事情要做,或者说,能够使用以及需要使用超算的人,并不会去考虑神经网络的问题。
至于计算复杂性,从课本内容上看其实是两个部分,一个是可计算性,或者说要解决一个停机问题,另一个才是课程的名称,计算复杂性。这门课的研究工具是自动机,或者说universal machine,这是一门到了研究生还要开的课,于是系里就合并了课程,让研究生和本科生一起上,而且考试还会一起考。
当然,考试不会很难就是,写几个自动机而已,李森说道,他研究生初试成绩已经出来,上线了,他报的还是李老师,于是就更加的有事没事就跑上来找孙彧聊天吹水,他一说到到时候读了研究生还要再上一遍这个课,也很是好笑。
但是一提到编译原理,李森脸色便严肃起来,但是又多少带着几分幸灾乐祸,其实他到了研究生还有一门相关的课程,叫做程序验证,比编译原理更为抽象一些,于是系里就没有把两门课合到一起上,不然又要吐一回,李森说道。
“当年我们的师兄就是这么吓我们的,你们到时候也可以去吓吓你们后面的师弟。”李森哈哈笑着。
而软件工程,看课本内容倒是博大精深,但是真正上了课,大家也才知道这不过是一门吹水的课程,国内软件现在都是一些个人作品或者小作坊出品的大环境之下,课上又能说些什么呢?至于开源,唔,那更是混乱不堪,完全违背了软件工程原则的开发模式。
所以,老师在上面念书,同学们在底下各行其是,孙彧觉得自己肯定会逃这门课的,只不过刚开学得先看看情况。