英特尔如何靠人工智能力挽狂澜?


    曾经的芯片巨头,正在全面拥抱着人工智能的转型。但是前有老对手微软的压力,中有NVIDIA的截杀,后有谷歌等互联网新贵的追击,英特尔如何用人工智能照亮未来之路?
    对于AI这件事,CPU和GPU谁更适合?
    要回答这个问题,就要从CPU和GPU的架构说起。这是一个非常复杂且学术的问题,抛开一些技术关卡,这张图片能比较直观的让我们了解到CPU和GPU的不同。
    CPU和GPU的架构示意图(图片来自电子工程)
    图片中绿色的是计算单元,橙红色的是存储单元,橙黄色的是控制单元。GPU采用了数量众多的计算单元和超长的流水线,但只有非常简单的控制逻辑。而CPU有着复杂的控制逻辑和诸多优化电路,但计算能力只占很小一部分。因此,GPU更擅长大规模并发计算,适用于数据并行度高的计算密集型程序(相同算法不同数据重复计算)。而CPU对并行程度要求低,对数据的依赖性不高,适合处理多样的任务。
    在2016年人工智能概念再次走向大众视野时,Alphago的走红将深度学习概念迅速炒热,对于需要大量数据并行计算处理的深度学习,GPU的优势被直接放大,但是从人工智能的完整路径来看,CPU和GPU必须各司其职相互配合。
    具体到一个完整的人工智能应用,前期的数据获取和最后的信息决策都是CPU擅长的,而中间大量的数据计算则是GPU更擅长完成的。“比如人脸识别应用,前期图像的采集、数据的存储在CPU上运行最好,随后GPU负责大量的并行识别计算,最后的识别结果需要关联其他信息做决策,或者跟其他传感器和渠道来做信息综合的时候,CPU则更擅长。”英特尔中国研究院院长宋继强在接受ZOL视频专访时举例道。
    英特尔中国研究院院长宋继强
    不过,GPU并不是并行计算的唯一平台。如果还没有明确的数据算法,需要大量实验确定哪种算法更适合的时候,GPU的效率会更高更灵活。但是一旦算法固定了,GPU的工作将可以由一种专门针对人工智能AI优化的加速芯片来替代。
    目前,英特尔拥有FPGA和Nervana两种硬件加速芯片,不需要CPU的指令调度,可以直接针对硬件和算法优化,执行效率更高。这类专用的加速芯片能够解决计算密度、内存存储带宽等问题,将性能优化到最佳。“前端设备要考虑尺寸、功耗、价格等问题,专用加速芯片是最好的选择。加速芯片特别适合在前端设备里做计算机视觉应用,小规模的深度学习网络,所以会出现在无人机、人工智能摄像头上。”宋继强院长表示。
    三个左右未来的收购
    英特尔用专用加速芯片降低了并行计算的冲击,而这背后离不开三个关键性的收购。
    英特尔167亿美元收购Altera
    2015年6月2日,英特尔宣布以167亿美元的现金收购可编程逻辑芯片巨头Altera,这笔交易成为英特尔成立49年历史中金额最大的一笔并购,CEO科再奇都感叹“这笔并购案的金额实在太大了”。的确,彼时英特尔一个季度的营收才刚刚达到132亿美元。现在看来英特尔当时的破釜沉舟还是压对了宝,Altera的FPGA纳入到英特尔的产品线后,成为了英特尔开发专用加速芯片至关重要的砝码。英特尔并购副总裁文德尔·布鲁克斯在当时接受采访时曾表示,相对于传统的处理器和FPGA独立组件,FPGA和英特尔处理器封装的一体化芯片最初将带来30%-50%的性能提升,而最终的性能提升将达到2-3倍。
    英特尔4亿美元收购Nervana System
    
    
    1  2  下一页>