亚马逊自研芯片背后的大潮流

2021-12-31 14:00:30 来源: 半导体行业观察

来源:内容来自 thenewstack ,谢谢。


亚马逊网络服务上个月扩大了其芯片影响力,主要是推出了这家巨型云提供商的第三代基于 Arm 的Graviton 处理器,该处理器将为针对计算密集型工作负载的新云实例提供动力,如高性能计算 (HPC)、科学建模、分析和基于 CPU 的机器学习推理。

在 AWS 的 re:Invent 会议上,该公司公布了目前处于预览阶段的 Graviton3 处理器,以及将在这些处理器上运行的 EC2 C7g 实例。同时,AWS CEO Adam Selipsky还宣布了运行在该公司一年前的 Trainium 芯片上的新 Trn1 实例,针对机器学习训练工作负载,并吹嘘了 2019 年推出并利用 Inferentia 芯片的 Inf1 实例的性价比能力,为机器学习推理任务。

该公司甚至宣布了存储优化的 EC2 实例——Im4gn/Is4gen/I4i——基于其 Nitro 固态驱动器 (SSD),以提高 AWS 云中 I/O 密集型工作负载的存储性能。

AWS 专注于芯片


最新处理器和 EC2 实例的推出是 AWS 多年来努力构建自己的处理器以在其云实例及其 Outposts 基础设施中运行的最新证明,这些基础设施旨在提供 AWS 服务和连接到- 在企业采用混合云模型快速增长的时候部署数据中心。

这一切发生在 AWS 于 2016 年收购以色列初创公司 Annapurna Labs 五年之后,这使其成为其芯片制造工作的基础。

Moor Insights and Strategy 的首席分析师Patrick Moorhead告诉 The New Stack:“AWS 已经在自己的芯片上投入了数年时间,从 Nitro 开始,扩展到通用 Graviton、用于推理的 Inferentia,以及现在用于训练的 Trainium 。” “AWS 可以挑选它想要的每一个功能,以及它不需要利用自己软件的每一个功能。它还可以针对其特定的网络和存储优化其 I/O。在规模上,这应该允许它以更低的成本提供计算,并在某些情况下提供更高的性能。”

Moorhead 说,英特尔、AMD 和 Nvidia 服务于更广泛的市场,跨越多种环境,一些客户并没有使用所有功能。AWS 正在使用本土计算来区分其实例。

性价比是关键


在他的主题演讲中,Selipsky 强调企业将看到在利用 AWS 芯片而不是来自英特尔和 AMD 的 x86 CPU 或来自这些供应商和 Nvidia 的 GPU 的实例上运行人工智能、机器学习和分析等工作负载的性价比优势。

“借助 Trainium 和 Inferentia,客户可以获得最佳的机器学习性价比,从扩展训练工作负载到通过高性能推理加速生产中的深度学习工作负载,让所有客户都可以使用机器学习的全部功能,” CEO说。“长期以来,这一直是我们的目标,降低训练和推理的成本是这一旅程的主要步骤。”

AWS 没有透露关于 Graviton3 的很多细节。他说,随着新的硅情况下为25%,快于Graviton2运行的通用计算工作负载作为动力的情况下,并会更好一些专门的工作负载。例如,它在科学工作负载和加密作业的浮点性能方面是两倍。运行机器学习应用程序的速度也快了三倍。

电源效率的一个因素


Graviton3 将在相同性能下使用多达 60% 的能量,部分原因是使用 DDR5 内存,它比 DDR4 消耗更少的功率,同时提供 50% 的带宽。该处理器将运行多达 64 个内核,拥有 500 亿个晶体管,时钟速度为 2.6GHz。

AWS 副总裁Jeff Barr在博客文章中写道,基于 Graviton3 的 C7g 云实例将提供各种尺寸,包括裸机模型。

基于 Inferentia 和 Trainium 的实例还旨在降低运行特定工作负载的成本。Selipsky 说,Inf1 实例的每次推理成本比类似的基于 GPU 的 EC 实例低 70%。同时,Trainium 驱动的 Trn1 实例针对自然语言处理和图像识别等工作,将提供两倍于基于 GPU 的实例的带宽——高达 800 Gb/s 的 EFA 网络吞吐量。

企业还将能够在 EC2 UltraClusters 中部署 Trn1 实例,该实例可以扩展到数万个 Trainium 芯片并达到 PB 级。这些 UltraCluster 将比之前的 EC2 UltraCluster 大 2.5 倍。

“Inferentia 和 Trainium 都是为了在生产级推理和核心训练中省钱,”Moorhead 说。“AWS 一直坚持其在节省资金方面的立场,因此,在我看到 Trainium 结果之前,我非常有信心在某些工作负载上,您会看到显着的节省。”

定制芯片的趋势


Graviton、Inferentia 和 Trainium 是行业向专用处理器发展的更广泛趋势的一部分。在本周的一篇博客文章中,Arm 基础设施业务线的高级副总裁兼总经理Chris Bergey写道,他的公司设计芯片并将这些设计授权给其他公司,正以其高能效推动这一设计趋势。

“数据中心工作负载和互联网流量几乎每两年翻一番,因此每瓦性能优势对于防止计算增加其碳足迹至关重要,”Bergey写道,并补充说 Arm 在云中的增长“让开发人员可以选择通过在每个核心的基础上提供一致的性能和可扩展性,继续可持续创新,实现可扩展的性能和效率的组合,以提供行业领先的 TCO。”

AWS 并不是唯一一家希望设计自己的芯片的超大规模企业,因为他们寻求更高的性能和效率。据报道,微软去年决定构建基于 Arm 的芯片,用于 Azure 服务器和谷歌,谷歌拥有诸如张量处理单元和 OpenTitan 安全芯片等定制芯片。Facebook 也在构建自己的数据中心芯片。

构建自己的处理器的挑战


The Enderle Group 的首席分析师Rob Enderle告诉 The New Stack,他不确定这将如何发展。

“当公司达到一定规模时,他们倾向于相信他们的内部规模经济将使他们能够与专注的供应商作为同行有效竞争,”Enderle说。“这一最新趋势很大程度上是英特尔错过了许多关键里程碑的结果……迫使云行业的大多数人考虑这条道路。”

然而,在 CEO Pat Gelsinger 的领导下,英特尔的执行力正在提高。他说,与此同时,AMD 的 Epyc CPU 和 GPU 继续给人留下深刻印象,这表明对定制芯片的需求可能正在减少。

“在供应短缺时期,像AMD 和英特尔这样的公司也可能更容易工作,而不是单独行动,因为这些公司不仅应该有更好的供应冗余,而且还应该能够更好地转移内部决策者的责备如果短缺甚至超出了他们的控制范围,”Enderle说。“成本确实仍然是单打独斗的潜在优势,但前提是你忽略了各家公司的知识产权保护和数十年经验的价值,这些经验通常会提供相互抵消的可靠性、一致性和性能优势。”

此外,随着时间的推移,成本会增加,内部努力可能变得无利可图且不可持续。分析师表示,部分原因是很难找到和留住所需的人才,这是在熟练员工严重短缺的时期面临的一项特殊挑战。

“虽然过去并不总是能预测未来,而且 AWS 规模的公司可以成功地完成即使是最大的企业也无法做到的事情”Enderle说,他进一步指出,“只要专业化公司的基本优势在执行,它们就仍然有效。”


★ 点击文末 【阅读原文】 ,可查看本文原文链接!


*免责声明:本文由作者原创。文章内容系作者个人观点,半导体行业观察转载仅为了传达一种不同的观点,不代表半导体行业观察对该观点赞同或支持,如果有任何异议,欢迎联系半导体行业观察。


今天是《半导体行业观察》为您分享的第2905内容,欢迎关注。

推荐阅读


WiFi技术更迭20年

又一28nm晶圆厂计划浮出水面,但困难重重

3nm后的选择


半导体行业观察

半导体第一垂直媒体

实时 专业 原创 深度


识别二维码 ,回复下方关键词,阅读更多

晶圆|集成电路|设备 |汽车芯片|存储|台积电|AI|封装

回复 投稿 ,看《如何成为“半导体行业观察”的一员 》

回复 搜索 ,还能轻松找到其他你感兴趣的文章!


点击阅读原文,可查看本文
原文链接!


责任编辑:Sophie

相关文章

半导体行业观察
摩尔芯闻

热门评论