2018-12-19 10:10
各位领导,各位专家好!今天我的报告的标题是从硬件、软件到系统,开启多元化创新时代。主题是多元化创新,背后的含义,今天在整个先进计算的体系里面,没有颠覆性技术,所以只能是多元化创新,是这样一个含义。
首先我们画了一个曲线(示意图),我们今天总结来看,当前信息通信最大的挑战之一,就是技术上的挑战,是需求和计算技术之间的鸿沟,差距非常之大。在移动互联网时代,我们使用手机的时候,没有意识到计算能力对我们计算业务支持的延迟。我们看对于未来,今天已经有了一些业务的雏形,今天很多的计算能力还远远不够,比如说人工智能,今天的机器学习,云端的训练至少需要一周的时间,显然时间太长了。我们看虚拟现实、增强现实,渲染的计算能力远远达不到体验的要求。
我们看自动驾驶,今天计算勉强能达到L3的支持能力,如果L4的驾驶,需要在今天的计算能力上增长50倍,显然这个差距是很大的。 另外一方面,类脑智能,或者量子计算它的产业化会更长,甚至需要十年以上的时间。
同样是移动计算,移动手机的计算和自动驾驶的计算,它的差距有多大?从计算需求来看,今天手机能够达到最高的计算是2TFLOPS,自动驾驶需要2500TFLOPS,数据生成的速度差距会更大,差了一万倍,计算能力也远远达不到支持L4及以上的计算能力。再加上一些其他的要求,比如温度,我们今天的计算支持工业,支持特别是自动驾驶驾的需求差距会更大。
先进计算是整个信息通信技术里面的基础和核心,我们理解先进计算不是一个单一的,单点的技术,是面向未来多种计算技术的一个统称,它包括很多的方面,包括原理、材料、系统、算法、网络架构、应用等等,我们谈计算有不同的视角,还有体系的视角,还有材料的视角,不同的材料,整个体系就发生变化。今天由于90%以上谈的都是冯诺伊曼架构体系的计算,我们今天看冯诺伊曼体系架构的要素,主要是六个方面,一个是基础理论,大家都比较熟悉了,像图灵机、冯诺伊曼架构等等,这是几十年前就建立的理论。第二是器件,包括设计、制造等等,第三层面就是固件层面,第四个层面就是系统,就是资源管理和任务调度。上面包括应用的软件技术和应用的技术。
从宏观来讲,三大技术推动了计算能力50年指数级的倍增。一个是器件技术,半导体工艺。第二大技术就是芯片的技术,就是频率的增加以及大核的扩展。第三就是系统的技术,分布式计算所带动的整体的效果的提升。
我们看从90年代以来,整个计算的重点是在不断的发生迁移,从大型的单机的计算到并行计算,到2003年谷歌发布他们着名的论文,分布式计算开始兴起。Hinton教授发布了2006年的深度置信网络论文以后,人工智能的计算开始大规模发展。所以这里面我还有一点自己的想法,我今年参加了一些国际上人工智能的大会,我感觉这次深度学习的浪潮绝对不是短暂的浪潮,我看到非常非常多的论文和深度学习、深度神经网络在各个领域的应用,非常非常多,所以它不会是一个短期的浪潮。
今天我们看计算技术的升级遇到了很大的挑战,甚至天花板效应已经出现了。第一,摩尔定律即将接近终点。我们看5纳米已经是10个硅原子的直径。第二就是频率越高,芯片的功耗急剧的增加。我们手机计算芯片再发展下去,它的计算能力,CPU计算能力再提高已经没有用了。因为你整个计算的效能都补到CPU传输的速度上去了,你的车再好堵在路上也没有用。有人讲CPU和存储压在一个芯片里,这是不太可能的。
第三个是阿姆达尔定律。第四个就是冯诺依曼计算架构瓶颈。这四个瓶颈决定的今天的计算能力无法大规模的往上提升。但是我们计算的需求远远超过了摩尔定律。看到了人工智能深度学习整个计算量,每3.5个月增长一倍,我们很快就失去了这一波的计算红利。对于今天的数据智能有一个很大的挑战。今天由于没有一个颠覆性的技术,所以今天定义计算平台的是什么?其实是应用,而不是以往的像大型机、小型机,包括智能手机时代的硬件芯片。因为我们在移动互联网时代,先有了智能手机,先有了芯片和操作系统,才有了移动计算平台。我们看到云计算、人工智能、自动驾驶,我们根据业务需求去定义这个计算能力。其实是我们今天整个产业发展的动力发生变化。
我分享四个我们认为先进计算的核心特征,应用驱动、体系融合、开放创新和颠覆未至,由于今天计算不是颠覆性技术驱动,需要体系化的融合推动技术的发展。整个创新发展的方式是开放的,开源式的创新模式。
首先是颠覆未至,这是今天我们看到工艺的升级已经趋缓,有很多的挑战,而且今天这个节点上参与者非常少,只有三家能够达到7毫米,到3毫米以后,估计现在目前只有3家了。整个新的起点结构在10年之内也会发生变化,新材料的引入等等还有很多的挑战。我们如果想去颠覆没有达到的情况下提升我们的计算,我们只能优化而不是颠覆。我们有四个发展方向,近期主要是把内存增加,通过软件的技术,来提升我们的计算能力。中远期就是引入新存储硬件技术。
我们再谈谈量子和类脑。今年有很多量子计算的新闻,但是今天量子计算还处于原始阶段,只能进行特定的应用。类脑计算,今天对脑机理的认知还不是很熟悉,所以今天对于深度学习很多的缺点的苛求是有点过分了,至少深度学习有大部分的应用,而且在很多的应用上非常有效的,很多的类脑也好,或者其他的人工智能方式没有有效的。
第二个特点就是应用的驱动。这个趋势越来越明显,以前我们说SDN也好,SDC也好,更多是软件定义到网络架构的层面,其实它没有对底层的芯片做定义。今天人工智能时代,直接定义到芯片底层的架构里,所以这个改变是非常大的。
去年到今年,全球有非常多的各类人工智能的芯片出现,主要由于在云端的推理,以及终端的推理方面,有很多的不同的特性所导致的。我们看中国至少有60家做人工智能芯片的公司。软件方面,应用驱动的趋势也非常明显,由于我们今天是一个从通用计算到专用计算的时代,导致你软件整体架构必须围绕这个来改变。
体系怎么演进?怎么提升我们的计算速度?处理这块,在云端一直是以通用计算作为主导的方向,但是今天这个情况在发生变化,特别是人工智能的云端训练,它需要所谓GPU的云端的训练。重点是存储,这个存储对现阶段没有颠覆性技术发生的情况下,存储所带来计算能力的提升是非常显着的及最主要的,中间这张图,如果我们把速度用数字来计算的话,CPU寄存器的延迟是按照1来作为标杆,CPU片装存储的延迟是3,系统内存的延迟是100,我们所用的硬盘延迟是100万,所以整个延迟的速度就太多了,相比CPU。所以今天导致的一个情况就是,CPU非常非常空闲,IO非常非常忙。对于整个系统的优化,就是围绕着怎么去提高IO的效率,这是一个方面。
另外,新型的非易性存储已经发生了,它会带来一个体系性的变化。 IO的提升主要是两个方面,这个太技术了。
还有第四个特点就是开放式创新。每一个ICT的浪潮它都抓住了这样的机会,而且它对于业界的影响是越来越重要,它也是从板级到芯片级的开源,到开源的指令级,它的渗透也是逐步的深入。目前最具争议的就是网络开源,当然这是另外的话题。
我们看在计算里面,硬件的开源浪潮也在兴起,我们认为还有几个特点需要关注,今天我们看RISC-V技术没有根本性创新,整个进度低于预期。
最后我们的展望,专用加速的架构将占据越来越重要的位置。在国际计算机体系架构的论文中,在90年代之中,有关处理器架构占了绝大多数,到2010年以后,GPU通用的加速架构越来越多。今天专用的加速架构占据了绝对的主导,这是学术研究的一个趋势。对于未来市场来讲,我们认为也是比较乐观的,未来有五大市场会有爆发性的增长,分别在云侧的是训练和推理的场景,边缘侧是智能手机、安防和汽车的场景。由于时间关系我就讲到这里,谢谢大家!