这将是英特尔提升FPGA带宽的秘密武器!

2017-12-20 10:30:41 来源: Cnbeta

 

英特尔的“嵌入式多芯片互连桥接”(EMIB)技术,或许是本年度芯片设计领域的一大趣事。其使得英特尔可以在同一片基板上连接不同的异构部件(heterogeneous dice),同时又不至于太占地方。今天,英特尔披露了有关如何通过 EMIB 帮助全新 Stratix 10 MX FPGA(现场可编程逻辑门阵列)家族芯片实现带宽大涨的部分细节。

 

 

在板载二代高带宽内存(HBM 2)、以及尚未正式宣布联姻的 Intel CPU 和 Radeon GPU 的基础上,英特尔将使用 EMIB 来挂接Stratix 10 MX FPGA 芯片,最多四块“瓷贴”可提供高达 512GB/s 的带宽。

 

除了 HBM2 内存堆栈,英特尔还会使用 EMIB 挂接四个 FPGA 信号收发器,比如 PCIe 。在白皮书(PDF)中,英特尔还提到了使用 FPGA 和 DDR4 内存来扩展当前系统级架构所面临的挑战。

三通道 DDR4-3200 内存或许可以满足当前 FPGA 的 80 Gb/s 带宽需求,但缩放比例和布局上的挑战,在当今的戏狗架构中几乎是不可能克服的。

 

 

随着未来 FGPA 处理需求的增长,是无法无限地在一片基板上安装足够多的 DDR I/O 针脚来满足其带宽需求的。

 

即便有可能在 FGPA 封装包上安置足够多的 I/O 针脚,额外的每条内存也需要占用相当耗能的 I/O 缓冲来驱动它们,导致带宽的需求超出了对每瓦特性能尤为敏感的数据中心等市场的设计约束。

最后,英特尔指出,将 10 组 DDR4 DIMM 插槽放到一块 PCB 上,理论上可达 256GB/s 吞吐率(在未来对 FPGA 也有这方面的某些需求),但会占用相当多的面积、让数据中心的密度不增反减。

 

 

上面提到的许多约束,也是 AMD 开始开发 HBM 内存来满足其 GPU 带宽需求的一个主要原因。与占用大量 PCB 面积的 GDDR5 显存芯片相比,HBM 不仅占地更小,所需布置的线路和能耗也更少。

 

当前厂商们多需要在 GPU 和 HBM 显存之间使用中介层(interposer),这颗额外的硅芯片确实也很占地方,不仅增加了封装的复杂性,也限制了芯片整体尺寸的收缩。

 

因此,英特尔对 EMIB 的定位是‘克服使用 DDR4 和 FPGA 以增加带宽的挑战’。与 Fuji 和 Vega GPU 上的 HBM 显存所搭档的中介层不同,EMIB 让英特尔的 Stratix 10 MX FPGA 在纳入 HMB2 显存时的占地限制没那么大。

 

 

英特尔表示,使用 EMIB 还可以让那些类似的基板受益,因为桥接器只是很小的一片,采用微凸(micro-bumps)而不是硅通孔(TSVs)来连接核心。

 

此外该公司不用担心制造上的挑战、或者减少 TSV 的产量,因为它可以使用标准的倒装芯片技术,封装集成了 EMIB 的芯片。

 

最终,所有这些奇特的技术,都可以让 Stratix 10 MX FPGA 芯片尽享指数级的内存带宽增长。与当前 FPGA 方案相比(4~6 组 DDR 通道),其支持多达 64 组的并发内存访问。

 

另外,该 FPGA 芯片采用英特尔的 HyperFlex 架构打造,运行频率可以达到 1GHz 。随着后续的优化,其能够实现更高的性能和应用加速的灵活性。


责任编辑:Cnbeta
半导体行业观察
摩尔芯闻

热门评论