加入收藏 | 设为首页 | 会员中心 | 我要投稿 烟台站长网 (https://www.0535zz.com/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 运营中心 > 产品 > 正文

《 新华三人工智能发展报告白皮书 》全文

发布时间:2020-07-15 18:50:02 所属栏目:产品 来源:站长网
导读:副标题#e# 人工智能商业化加速将深刻改变人类社会 1、 从学术研究走向商业应用 人工智能最早可追溯到上世纪的四五十年代,被誉为“人工智能之父”的艾伦·图灵,在其论文《计算机器与智能》中,提出了非常著名的图灵测试,即被测试的机器是否能够表现出与人

  深度神经网络非常容易受到对抗样本的攻击的。一些图像或语音的对抗样本,仅有很轻微的扰动,以至于人类无法察觉这种扰动。但对于模型却很容易觉察并放大这个扰动,进而处理后输出错误的结果。这个问题对于在一些关键场合下危害非常大。对抗与攻击也是深度学习研究领域的一个热点,已经有很多防范攻击的方法来降低风险。

  4、 社会规范方面的挑战

  人工智能技术是一把双刃剑,一方面能推动社会进步和经济发展,另一方面也会带来法律、隐私保护、伦理等的风险。人工智能技术的运作效率极高,如果被不法分子利用了,发起网络攻击或者窃取机密信息,将会产生巨大的危害。

  另外,深度学习依赖于数据,在数据采集过程中,不可避免的会收集到用户的一些隐私数据,涉及个人的生活习惯、健康等数据,如果这些数据不加以监管被乱用,势必会造成隐私侵犯。针对这方面风险,国家也在研究应对措施。

  在《新一代人工智能发展规划》中明确指出,到2025年,我国初步建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力。在2019年6月,《新一代人工智能治理原则——发展负责任的人工智能》发布,提出了人工智能治理的框架和行动指南。

  相信随着技术上的进步,法律、社会规范的出台,人工智能将会朝着安全可靠、公平、保护隐私等正向发展,促进人类福祉。

  人工智能产业化落地ICT技术是关键支撑

  1、 算力突破推动算法创新,促成第三次AI浪潮

  在2012年,Hinton课题组参加ImageNet图像识别大赛,其AlexNet模型以大幅领先对手的成绩取得了当年的冠军,使得深度学习算法一时间轰动整个学术界和工业界。

  深度学习算法本质上也是神经网络,早在上世纪80年代就已经诞生。AlexNet模型使用了比以前更加深层的网络,参数量高达千万级,使用了大规模的图像样本进行训练,当然也有一些细节上的算法创新。

  当时支撑AlexNet模型的实现,是基于两块英伟达GTX 580的GPU,完成了当时CPU难以短时间完成的任务。从此,业内普遍认同了两方面的事实:一方面是神经网络的模型规模增大有助于提升识别效果;另一方面,GPU卡可以提供非常高效的算力,用来支撑大规模神经网络模型的训练。

  近几年,业内各厂家意识到算力的重要性,分别推出多种加速卡如GPU、谷歌的TPU等,用于加速人工智能计算,直接推动了人工智能算法飞跃式的创新。从2012年到2018年期间,以计算机视觉为主的感知类智能取得了突飞猛进的发展,有些领域如多维特征识别等,其识别率远远超越了人类水平。

  在2018年末,谷歌发布的BERT模型,在11项不同的NLP测试取得最佳成绩,直接推动了NLP认知类智能的突破。在这惊人成绩的背后,是强大算力提供的支撑。跟据作者描述,BERT-Large模型是在33亿词量的数据集上训练的,拥有3亿多的参数。试想一下,如果没有能支撑这么大计算量的算力资源,也许很难验证算法的效果,算法创新也就更加不易。

  另外,数据的爆发式增长,对算力的依赖也十分强烈。根据IDC报告显示,“数据总量正在以指数形式增长。从2003年的5EB,到2013年的4.4ZB,在2020年将达到44ZB”。面对海量的数据,使用人工智能算法挖掘其中的价值,也必须有强大的算力支撑才能实现,这也直接关系到人工智能应用的创新和发展。

  当前这种以深度学习训练算法为主的时期,对算力和数据的需求是惊人的。OpenAI对近年来的模型训练和算力需求做过一个分析总结,自2012年以来,最大规模的AI训练运行中使用的计算量呈指数增长,且翻倍时间为3.4个月,远快于芯片工艺的摩尔定律。

  为了支撑巨大的算力需求,一种行之有效的方法就是采用异构计算集群。在人工智能领域中,异构计算是指联合了通用的CPU和面向AI运算加速的GPU/FPGA/ASIC等不同计算体系结构处理器的计算系统。另外,单颗芯片的计算能力是有限的,且随着摩尔定律失效,仅从芯片角度来提升算力相对来说比较困难。

  业界一般采用计算集群的方式来扩展算力,通过把成千上万颗计算芯片,整合在一个系统中,为人工智能模型的训练和推理应用提供支持。目前,鉴于GPU的通用性、性能和生态等因素,面向人工智能的异构计算集群,仍然以CPU+GPU的方式为主流,但在一些特定应用场景中,CPU+FPGA/ASIC的方式也有一定的优势。

  另外,异构计算集群实现算力的扩展,不单是硬件设备上堆砌。由于人工智能特有的计算模式,设计面向人工智能计算的集群需要区别传统通用计算集群,如在进行模型训练的时候,集群计算节点间需要大量且频繁的周期性数据同步等,都是需要考虑的因素。

  为了提升性能,需要考虑系统软件和计算框架层面上的优化,如何合理的调度AI任务来最大化地利用计算资源。同时也还需要考虑高性能的网络和存储,来保障集群整体性能。

  提升算力的另一条途径,就是从芯片层面去实现。相对于传统程序,AI计算有着明显的特征,导致传统处理器无法满足:当前很大一部分AI应用,处理的是视频、语音、图像等非结构化数据,计算量巨大且多数为矩阵运算,非常适合并行处理;另外,深度学习模型参数量非常多,对存储单元访问的带宽和时延直接决定了其计算的性能。

  为此,一方面可以通过不断的改进优化现有计算体系芯片的计算能力,从早期的CPU,到专用于并行加速计算的GPU,以及在特定场景应用的FPGA和ASIC芯片,都是在朝着适应AI计算模式的方向优化,加速AI运算过程。

  这种方式是目前AI计算加速的主流方式。另一方面可以采用新型计算架构,如类脑芯片、量子计算等,从根本上颠覆现有计算模式。2019年8月,清华大学类脑计算研究中心研制的Tianjic芯片登上了《自然》杂志,展示了类脑芯片的潜力,是未来AI芯片的一个重要方向。

《 新华三人工智能发展报告白皮书 》全文

       ▲AI加速芯片及应用场景不同的计算场景对算力的需求特点是有差异的:

  在云端/数据中心的训练场景中,更多的关注算力的性能、精度、扩展性、通用性、可编程、能耗效率等;

  在云端/数据中心的推理场景中,对算力考量的侧重于吞吐率、延时、扩展性、能耗效率等;

  在边缘端的推理场景中,考虑更多的是延时、能效、成本等。

(编辑:烟台站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!