div#pop_ad { opacity: 0; }
“2017 年是中国 AI 发展的元年,AI 的投资增长 10 倍,算力提高 230.7%,数据量增加 50%。”这一结论来自近日由浪潮联合IDC研究发布的《2018中国AI计算力发展报告》。
AI投资的大幅增长,已让我们普通民众体验到了AI应用带来的生活方式的改变,比如,网上叫车、点外卖、在线搜索,语音识别翻译、机场刷脸过闸等等,让我们感觉到AI已来到我们身边。

2018年被看做是AI商业化落地之年,确实,除了我们大众日常接触的互联网领域的AI服务,AI已经开始加速向传统行业落地。
据该报告分析,中国应用 AI 计算的前四大行业:一是互联网,应用场景有搜索引擎、电商用户行为分析;二是政府部门,主要应用场景为公共安全和公共服务;三是医疗行业,主要用于疾病预测诊断、信用风险管理;四是金融行业,主要应用场景有知识管理和生成、在线业务人脸识别等。
AI要深入走向大规模商用落地,还需要做什么,存在哪些挑战?这正是所有AI从业者和专家共同关心的问题。
在9月12日举办的第二届人工智能计算大会(AICC 2018)上,来自中国工程院、美国工程院、美国杜克大学等10余位学术界领袖,来自微软、Intel、NVIDIA、百度云、阿里云、浪潮、Face++等数十位AI产业界领袖,以及2000多位互联网、金融、公安、能源、医疗等行业专业人士共同参与,围绕AI计算对AI发展的重要性、AI计算面临的挑战等话题进行了研讨。也是在此大会上,《2018中国AI计算力发展报告》摘要版发布。

AICC由中国工程院信息与电子工程学部主办、浪潮集团承办
计算如何更给力AI发展?“没有计算就没有人工智能,”中国工程院院士、浪潮集团首席科学家王恩东认为,在人工智能的发展中计算力始终发挥着关键作用。
人工智能自1956年提出以来,经历了三个阶段,近几年才逐渐步入快速发展期,走入商业应用。这轮人工智能爆发背后有三大驱动力:数据、算力与算法,它们都与计算息息相关。
一方面,互联网、数字化带来了大数据。据统计,整个人类文明所获得的全部数据中,有90%是过去两年内产生的,到2020年,全世界所产生的数据规模将达到今天的44倍。
这么多的数据的产生、存储、处理,其实都是基于包括手机、电脑、服务器等计算设备,可以说计算提供了数据。
另一方面,近年来GPU等加速技术带来计算力的跨越式发展,给深度神经网络算法应用于大数据处理提供了可能性。
2012年,Hinton与其学生设计了AlexNet卷积深度神经网络,并在GPU上实现,结果大大提高了对ImageNet的识别准确率。自此以后,计算力和深度神经网络模型的不断提升,带动了整个AI的革命与复兴。
所以,AI的发展离不开计算力的快速发展,某种意义上来讲,是计算点亮了AI。同时AI也反过来给计算带来新的要求。

王恩东
随着人工智能应用快速落地并赋能更多的行业,数据和训练任务量呈指数级增长,激发了对计算的巨大需求。OpenAI报告显示,从2012年以来,AI的计算力6年增长30万倍以上,但是按照摩尔定律,而每18个月芯片性能才能翻倍。
显然,AI对计算力的需求已远超摩尔定律的性能增长速度。在当下阶段,神经网络和其他机器学习系统的实现,依然依赖于庞大的计算能力。与人工智能发展需求相比,计算力发展显得滞后了。
我们知道,芯片是驱动计算力的核心。而摩尔定律逐渐逼近极限,通用计算的芯片结构未来已经不能引领信息产业的发展。
当前执行深度学习算法的主流方式仍然采用GPU芯片,虽然从架构上看,GPU相比CPU更有效率,但是离最优还相距甚远。美国杜克大学终身副教授陈怡然谈到,“过去五年如果单看GPU的单板计算能力,只提高了3-4倍,但参数提高了几百上千倍。需要有更加高效的AI芯片,才能弥补摩尔定律本身发展限制以及参数增加所带来的算力差距。”
谷歌、百度等公司都推出了自主研发的芯片,AI芯片也成为了创投的热门领域。然而这些为深度学习定制的专用AI芯片还远没有形成规模,经典计算瓶颈尚未被打破。这也是计算能力难以获得突破的根本原因。
在巨大需求的驱动下,GPU加速计算、可定制计算、异构计算架构得到快速发展,越来越多的公司使用FPGA、ASIC等定制芯片为人工智能加速。
比如,作为AI计算平台厂商的浪潮,在整合使用各种主流芯片的同时,也在自己开发在算法和集成层面的K1高速交换芯片、处理器协同芯片组、FPGA等芯片类产品,实现更灵活的IT架构构建模式,形成自己计算平台的核心竞争力。
浪潮提升计算能力的做法是“软件定义、硬件重构”。在软件定义方面,通过连接、池化和重构的技术,将CPU和各种协处理器(GPU、FPGA和xPU)更紧密结合,利用全互联NVSwitch、PCIe 4.0、Open CAPI等新型超高速内部、外部互连技术,增加不同计算资源的协同能力,通过软件定义实现业务自动感知和资源自动重构,使计算的性能和效率实现大幅提升。
在硬件重构上,则通过数据中心内部如硅光互联,NVlink等高速物理互连技术,实现包括x86、Power、国产芯片、各种PU等异构计算芯片的融合,实现NVM、SSD、HDD等异构存储介质的融合,真正实现对计算、存储资源的深度池化。
支撑起AI生态金字塔之“腰”浪潮很早就判断人工智能会成为未来增长点,在AI领域不断加大投入。浪潮在同行中较早成立了AI HPC部门,打造AI计算全栈式产品布局,可以为行业客户提供从计算平台、整套管理套件、到深度学习框架的优化和端到端的解决方案。
浪潮长期致力于打造软硬件全栈式解决方案,在AI市场取得了优异的成绩。IDC 2017年中国AI基础架构市场调查报告显示,中国2017年AI硬件销售额同比增长235%,浪潮市场份额占比57%居第一,超过其他厂商份额的总和。

浪潮的多个AI产品是全球领先的,如2U8卡AI服务器AGX-2是业内最高计算密度的AI服务器。今年5月份,在基于浪潮AI服务器的公有云环境下实现了512片GPU集群的AI训练,打破AI训练性能世界记录,在10s内完成ImageNet数据集训练,比Facebook保持的世界纪录快1倍以上。
在这次AICC大会上又发布了AI计算性能高达每秒2千万亿次的超级AI服务器AGX-5。据介绍,与之前同类GPU服务器相比,AGX-5可支持4倍超大规模深度神经网络模型且训练速度提高10倍。
针对如何为AI提供更强计算力这个问题,浪潮AI HPC总经理刘军给出的答案是:一方面会继续在产品创新上下功夫,使得浪潮在AI产品开发上线能够更快更强;而另一方面则是关注AI的生态问题,如何建立健全AI生态。

在刘军看来,如今,金融、保险、高铁等领域都有大量的AI落地需求,但是同时存在的挑战在于:AI发展速度太快了,既缺少充足的人力资源,也缺乏充足的AI合作伙伴,来支撑庞大的行业用户进行AI转型。这是整个AI产业链中最大的挑战。
刘军介绍,行业客户在转型AI时常会问三个问题:第一,谁帮我快速建立AI的应用;第二,谁帮我实现AI里软硬件系统交钥匙,第三,谁帮我发展自我AI开发。只有这三个方面问题有有答案,行业客户才能更加快的启动AI业务。
正是基于此,浪潮今年4月份提出一个“T计划”,希望打造行业AI新生态,服务于行业客户AI转型。
然而,对于成千上万有AI落地需求的行业用户,与在“金字塔”头部的AI科技公司和金字塔底座的SV等应用公司在非常大的鸿沟。
在传统行业信息化过程中有SV、销售通道、服务商、人才培养、应用开发等非常丰富的产业生态链支撑,而在传统行业AI转型过程中,生态则是挑战。
具有服务行业客户经验的ISV、SI,大部分在AI领域的技术能力都不强,浪潮希望帮助这些合作伙伴去成长,让他们具备AI的产品和能力。
比如,Caffe是一个单机版本,而浪潮在此基础上开发了多机版的,这是一个开源项目,浪潮可以把这个项目贡献在SV和SI的体系里,希望合作伙伴在开放开源的架构里发展自己的AI能力。
对于这些合作伙伴来说,不仅可以从浪潮的通道获取产品,还能获取到百度、讯飞、网易等公司的AI能力。浪潮希望把金字塔的“腰”建立起来,对上连接百度等腰上面的合作伙伴,对下连接腰下的SV和SI等合作伙伴。
添加新手交流群:币种分析、每日早晚盘分析
添加助理微信,一对一亲自指导:YoYo8abc