吸引英特尔、赛灵思和微软三家竞购,Mellanox有何魅力?

2019-01-31 14:00:20 来源: 半导体行业观察

昨日,据以色列财经新闻网站Calcalist报道称,英特尔将以现金加股票的形式,出价55亿美元至60亿美元竞购以色列科技公司Mellanox Technologies。与Mellanox Technologies前日在纳斯达克的收盘价相比,60亿美元的报价相当于溢价35%。对于该报道,英特尔和Mellanox Technologies拒绝发表评论。

在更早之前,Xilinx和微软也表达了对这家公司的兴趣。

据外媒CNBC去年11月的报道,FPGA巨头Xilinx就收购Mellanox事宜,聘请了巴克莱银行为其谋划。据报道,收购迈络思可令赛灵思获得更多可在数据中心市场上出售的产品。

去年12月,有报道表示,微软也对以色列网络公司Mellanox感兴趣,这有可能让微软成为2019年最早完成科技收购的厂商之一。希伯来语出版物TheMarker的报道披露,微软已经聘请高盛集团(Goldman Sachs)的服务代表进行谈判。

先后有三家公司对这家总部位于以色列的企业表达了兴趣,它究竟有何魅力?

Mellanox是一家总部位于以色列的公司,该公司成立于1999年。公司官网介绍,他们是一家在全球范围内为服务器和存储提供端到端Infiniband和以太网互联解决方案的领军企业。他们提供的互连解决方案通过低延迟、高吞吐量的强大性能,可以极大的提升数据中心效率,在应用和系统之间快速的传递数据,提升系统可用性。Mellanox为业内提供了加快内部设备互联的技术和产品,包括网络适配器、交换机、软件和芯片,这些产品都可以加速应用的执行,并最大化的提升HPC、企业数据中心、Web2.0、云计算、存储以及金融服务的效率。

我们知道,随着在服务器,存储和嵌入式系统中使用多个多核处理器,I / O带宽不能跟上处理器的进步,造成性能瓶颈。快速数据访问已成为利用微处理器增加的计算能力的关键要求。此外,互连延迟已成为集群整体性能的限制因素。

另外,集群服务器和存储系统作为关键IT工具的不断增长的使用导致了互连配置的复杂性的增加。 EDC中的配置和连接数量也有所增加,使得系统管理变得越来越复杂,操作昂贵。另外,使用不同的互连基础设施管理多个软件应用程序已变得越来越复杂。

再者,随着附加的计算和存储系统或节点被添加到集群中,互连必须能够扩展,以便提供集群性能的预期增加。此外,对数据中心能源效率的更多关注正在导致IT经理们寻求采用更节能的方法。

同时,大大多数互连解决方案不是设计为在大型集群环境中使用时提供可靠的连接,从而导致数据传输中断。由于EDC中的更多应用程序共享相同的互连,因此需要高级流量管理和应用程序分区来保持稳定性并减少系统停机时间。大多数互连解决方案不提供此类功能。

据维基百科,Mellanox正在深耕的InfiniBand是一个用于高性能计算的计算机网络通信标准,它具有极高的吞吐量和极低的延迟,用于计算机与计算机之间的数据互连。InfiniBand也用作服务器与存储系统之间的直接或交换互连,以及存储系统之间的互连。总体来看,这个技术有以下优点:

首先,被设计为严重依赖通信处理的其他互连技术相比,InfiniBand被设计用于在IC中实现,以减轻CPU的通信处理功能。 InfiniBand能够相对于其他现有的互连技术提供优越的带宽和延迟,并且每个连续的产品都保持了这一优势。例如,我们目前的InfiniBand适配器和交换机提供高达100Gb / s的带宽,端到端延迟低于微秒。此外,InfiniBand还充分利用了PCI Express的I / O功能,即高速系统总线接口标准。

其次,根据独立的基准测试报告,InfiniBand解决方案的延迟不到测试以太网解决方案的一半。 光纤通道仅用作存储互连,通常不会在延迟性能上进行基准测试。 HPC通常需要低延迟互连解决方案。 此外,云,Web 2.0,存储,机器学习和嵌入式市场中对延迟敏感的应用程序越来越多,因此,使用10Gb / s和更快的行业标准InfiniBand和以太网解决方案有趋势 ,能够提供比1Gb / s以太网更低的延迟。

第三,虽然其他互连需要使用单独的电缆连接服务器,存储和通信基础设施设备,但InfiniBand允许在单个电缆或背板互连上整合多个I / O,这对于刀片服务器和嵌入式系统至关重要。 InfiniBand还通过单个连接整合了集群,通信,存储和管理数据类型的传输。

第四,InfiniBand被开发为提供多个系统的高可扩展性。 InfiniBand在硬件中提供通信处理功能,减轻了该任务的CPU,并使得添加到集群的每个节点的全部资源利用率得以实现。

第五,InfiniBand是唯一在硅硬件中提供可靠的端到端数据连接的行业标准高性能互连解决方案之一。此外,InfiniBand还促进虚拟化解决方案的部署,从而允许多个应用程序在专用应用程序分区的同一互连上运行。因此,多个应用程序在稳定连接上同时运行,从而最大限度减少停机时间。

Mallanox公司拥有的从光模块、网卡、交换机、服务器到有源光缆的全系列200G产品,同时他们还提供RDMA(Remote Direct Memory Access,远程直接内存访问)技术、GPU Direct RDMA技术、SHARP(Scalable Hierarchical Aggregation and Reduction Protocol)技术、NVMe Over Fabric Target Offload技术、SHIELD(Self-Healing Technology)技术和Socket Direct和Multi-Host技术,相信这也是这些公司看中这个企业的原因。

责任编辑:Sophie

相关文章

半导体行业观察
摩尔芯闻

热门评论