当前位置: 首页 » 资讯 » 热点文章 » 正文

AI加速器,实现人工智能创新的核心引擎

放大字体  缩小字体 发布日期:2021-04-01  浏览次数:63
核心提示:AI加速器主要在两大领域发挥作用:数据中心和边缘。现在的数据中心需要大规模的可拓展计算架构,尤其是那些可支持多达数千台物理
 AI加速器主要在两大领域发挥作用:数据中心和边缘。现在的数据中心需要大规模的可拓展计算架构,尤其是那些可支持多达数千台物理服务器和数百万台虚拟机的超大规模数据中心,对大规模可扩展计算架构的需求极为迫切,这一市场需求使得一些企业凭借加速AI工作负载这一业务发展壮大。例如,Cerebras为Cerebras CS-1深度学习系统创造了晶圆级引擎(WSE)。WSE面积为46,225mm²,拥有1.2 万亿个晶体管和40万个经过AI优化的内核,是迄今为止最大的芯片。WSE可提供更大的算力、存储和通信带宽,能够支持AI研究达到前所未有的速度和规模。与之相对的是硬件基板面有限且节能至为关键的边缘应用。如果边缘SoC内部集成了AI加速器IP ,则它可以快速提供必要的智能功能从而支持各种应用,例如智能手机或自动化工厂机器人中运行的交互式程序。对于在边缘提供智能应用,支持它们的 AI加速器必须经过优化,以具备诸如实时计算延迟、超高能效、失效安全运行以及高度可靠性等特征。

并不是所有AI应用都需要像WSE这么大的芯片,例如以下类型的硬件AI加速器:

 能够执行时间神经网络处理的图形处理单元 (GPU) 

 Google张量处理单元 (TPU) 等空间加速器 

 Sambanova的DataScale等粗粒度可重构计算架构 (CGRA) 

 经过向量处理扩展的大规模多核标量处理器 


所有此类芯片均可以几十个或几百个组合使用,形成更大的系统,处理更大型的神经网络。比如说,如果将Google的TPU合并到pod配置中,那么可以带来超过100 petaFLOPS的处理能力来训练神经网络模型。NVIDIA旗下应用深度学习研究团队推出的Megatron创造了一个带有83亿参数转换器的语言模型,可提供8路模型并行和64路数据并行功能用于自然语言处理。要执行这一模型,就必须开发出具有 312 teraFLOP FP16计算能力的NVIDIA A100 GPU。另一种新兴的硬件类型是 CGRA,它能在编程不同网络时,在性能、能效与灵活性方面巧妙地实现权衡。


在这场关于AI硬件的讨论中,软件栈是不容忽视的存在,因为它能实现系统级性能表现,并确保充分利用硬件。TensorFlow等开源软件平台为开发人员提供各类工具、库和其他资源,帮助他们轻松构建和部署机器学习应用。Facebook Glow等机器学习编译器不断涌现,有助于促成高级软件框架与各种AI加速器的连接。

本站文章版权归原作者所有 内容为作者个人观点 本站只提供参考并不构成任何投资及应用建议。
本文转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。如涉及作品内容、版权和其它问题,请在30日内与本网联系,我们将在第一时间删除内容

 
 
[ 资讯搜索 ]  [ 加入收藏 ]  [ 告诉好友 ]  [ 打印本文 ]  [ 关闭窗口 ]

 
0条 [查看全部]  相关评论

 
推荐图文
推荐资讯
点击排行
 
QQ在线咨询
全国服务热线
0755-83979566