高性能计算需要什么样的互连网络?

  • 时间:
  • 浏览:1

HPC系统为哪些选择Mellanox InfiniBand?刘通解释了Mellanox为超算系统提供的一系列全球领先的性能、可扩展性和效能。

首先是具备智能解决能力的InfiniBand交换机——1000G EDR InfiniBand交换机Switch-IB 2和在SC16上如果发布的1000G HDR InfiniBand交换机Quantum,智能InfiniBand交换机不不都可否在网络中管理和执行MPI算法。如果,网络就不不都可否在数据传输过程中解决和聚合数据,Mellanox称你你这一能力为“SHArP(Scalable Hierarchical Aggregation Protocol,可扩展分层聚合协议)”。

本文来自云栖社区媒体公司合作 伙伴至顶网,了解相关信息都可否关注至顶网。

当然,看出了Mellanox的做法也就回到了另另还还有一个 技术体系的PK,也什么都有 Offloading(卸载)和Onloading(加载)技术的PK。 Offloading的代表是Mellanox,Onloading的代表是英特尔。

本文作者:陈广成 

“多个应用测试结果显示,Omni-path性能要比InfiniBand EDR慢什么都有。尤其随着节点增加,InfiniBand EDR优势越明显”

不过我你会问是哪些助力了超算系统的性能那么 高、下行数率 那么 快?除了计算、存储、软件、应用等媒体公司合作 外,还少不了另另还还有一个 关键每项,高速互联的网络让超算系统的下行数率 不断提升。Top10000榜单(第48版)显示,有超过65%的HPC系统采用InfiniBand网络,因此 有46%的千万亿次超算系统采用InfiniBand互连,来自Mellanox InfiniBand互连方案在TOP10000榜单中的完正超千万亿次系统中位于了半壁江山。

国际高性能计算咨询委员会亚太区主席、Mellanox亚太及中国区高级市场开发总监刘通

Mellanox的产品结构都可否凸显其所强调的网络并算是 简单的数据转发网络,什么都有 加入了强大的“智能”属性。

刘通指出,“相对于如果的InfiniBand交换机只负责数据转发,Mellanox现在的InfiniBand交换机不不都可否执行数据计算,因此 让HPC的应用多多守护进程 整体性能又有进一步的飞跃。”

此外,Mellanox的网卡还支持Multi-Host(多通路)技术,即一款网卡都可否一同给多台服务器使用。刘通说,“传统上每台服务器时要配一片网卡,现在Multi-host技术都可否使多台服务器共享一片网卡。Mellanox1000G的单片网卡,支持4台服务器,每台服务器至少拥有一片25G独立网卡,这都可否大大节约成本,提高灵活性。一同,Multi-Host不仅仅是把另另还还有一个 高下行数率 的网络切成几片小下行数率 的网络,它还都可否带来另外另另还还有一个 巨大利好,Multi-Host的网络技术都可否让每一颗CPU直通网卡,通过PCIe直连到网卡传输数据,解决在多CPU系统共享一片网卡的传统服务器中,通信必须通过与网卡在同一root complex的CPU来完成。因此 ,Mutli-host不仅降低成本,一同都可否保障更好通信性能。”

InfiniBand 1000G和Omni-Path 1000G应用性能对比

为HPC网络互连添智能

Mellanox还组阁 提供HPC集群的租用服务,128个节点,有最新的Intel CPU、最新的InfiniBand网卡和支持SHArP功能的交换机,还有支持SHArP加速的HPC-X软件、最优化的支持RDMA Lustre文件系统,刘通表示,Mellanox提供的HPC平台是经过反复推敲的性能优化的另另还还有一个 HPC集群。“大伙儿儿想通过为用户提供HPC租用服务我你会们了解另另还还有一个 真正高下行数率 的集群是何如工作的,让用户有另另还还有一个 切身的体会,不不都可否用到大伙儿儿硬件加速、软件加速、文件系统加速等所有性能的体现优势。”

在高性能计算系统中使用最多的网络毫无现象属于InfiniBand,统计Top10000中HPC系统使用的网络方案数据显示,InfiniBand排头阵,其后分别是Cray、Proprietary,不如果两者均属于私有网络,再如果以太网的份额非常小。

原文发布时间为:2016年11月24日

现在,Mellanox还在继续引领高速网络创新,近日其发布了全球首个 1000Gb/s 数据中心网络互连解决方案,1000Gb/s HDR InfiniBand 解决方案进一步巩固了Mellanox的市场领先地位。

刘通表示,人太好英特尔在什么都有场合展示了其Onloading的测试结果对比InfiniBand具备性能相近或甚至或多或少情况汇报下具备微弱优势。 刘通直言性能测试大有玄机。因此 使用同样硬件(仅仅网络不同),同样系统软件配置,相同应用多多守护进程 运行参数,几乎不因此 突然出显Onload技术为基础的omni-path技术比智能InfiniBand还快的因此 性。用户的实际体验是最直接的证明。最近在OpenFoam用户大会(主流CAE软件),Onmi-path位于意大利的大型系统使用者直接指出要使用Omni-path网络运行应用的如果时要空余每项核心用来做通讯,哪些核心必须分配MPI多多守护进程 。因此 计算与通信会在CPU资源占有上互相冲突,这如果Onloading的不够就会突然出显了。

为哪些会有如果的另另还还有一个 区别?刘通解释称,第或多或少什么都有 对CPU的占有率,因此 Omni-Path做网络解决,时要占用多量CPU资源,什么都有CPU资源耗费在通讯顶端,大伙儿儿的CPU占有率则必须1%。其次,在CPU的指令顶端耗费也是非常巨大的另另还还有一个 区别,InfiniBand 3900万,因此 Omni-Path因此 是几次亿的量级。大伙儿儿都可否把Mellanox InfiniBand看做协解决器,因此 它释放了多量CPU指令和CPU占有率,让CPU不不都可否完正地用到计算任务上,从而使用更少的服务器完成同样任务,最终降低整体系统成本。

PK英特尔Omni-Path

2016全球超级计算大会(SC16)在美国盐湖城落下帷幕,期间第48版TOP10000超级计算机榜单发布,中国以171台的上榜总数与美国并列第一,千万亿次的超算系统大放异彩。

其次是InfiniBand网卡,“Mellanox ConnectX-5网卡提供1000G网络下行数率 ,延迟降到0.6微妙,每秒都可否解决2亿条消息,比上一代产品(Mellanox ConnectX-4适配器)快了33%。”刘通说,同Switch-IB 2一样,ConnectX-5网卡也会执行相应的MPI操作,这会将MPI数据通讯延迟大幅下降,一同将其占用的CPU资源降低至最低的因此 。