肥仔教程网

SEO 优化与 Web 开发技术学习分享平台

OCP服务器MHS (模块化硬件系统) 规范更新

周日的时间有限,简单给大家写一点分享吧。

今天的参考资料,来自《2025 OCP EMEA Summit会议资料》里的“What's New in MHS”,演讲人分别来自AMD、Intel和Jabil。

MHS是(Modular Hardware System)的缩写,该组织挂在OCP Server项目的下面,与NIC Project(也就是制订OCP NIC标准的)工作组并列。MHS下辖3部分,除了最主要的DC-MHS Project之外,还有DC-SCM也就是BMC管理模块项目,以及针对边缘计算的Edge-MHS。

在参与企业里面,国外的互连网4巨头中只缺AWS(AWS一直没加入OCP组织,包括Arm服务器也是自己搞)。国内服务器厂商只看到H3C,另一家销量领先的,好像是自己另拉了个标准山头吧。

在HPM(Host Processor Module)Classes规范v1.1中的M-SDNO,定义了几种主板尺寸。

左边的2款是半宽/为1S单处理器优化,其中上面的Class A在19英寸服务器机箱中应该可以横向并排放2块;Class B较宽一些主要针对21英寸机箱(在19英寸中也能放一块)。Class A定义了2个PCIe Riser位置,看图应该是x16 lane;而Class B主板则增加到3个Riser,在SCM的右侧(包含NIC模块)的区域被称为Platform Custom Zone,可以放E1.S SSD启动盘。(注:都是按照前出线或称front I/O)

半宽——左右并排2个节点的设计,相对会拥挤一些。右边则是2种全宽主板:

右上方的Class C只针对19英寸机箱,可以左右排布2个CPU Socket,最多支持5个PCIe Riser,在SCM模块右侧有较大的“Platform custom zone”位置;而更宽的Class D则针对21英寸,支持的Riser增加到6个。

上图中间的这个示意,应该是支持把主板上的2颗CPU拆分为2个Node,这时它们就可以分别连接各自的SCM和NIC模块了。我记得也有共用的方案,比如Multi-Host网卡,ASPEED的BMC芯片AST2750就是支持双节点管理的。

最右边那个示意,每个服务器节点再加一颗xPU,我理解应该是像NVIDIA NVL2那样,形成CPU+GPU的组合。(参考《Meta的GB200液冷AI服务器 - Catalina》)

新的Class E还是草案标准,与之前的M-FLW HPM相比,Class E最大的特点是“左右不对称”,这样电源模块可以位于同一侧。适用于哪些客户?要看机架的PDU规划了。

边缘服务器,尺寸上最大的特点是“短深度”。右下方的示意图中也可以支持多节点,比如在2U机箱里,1U Narrow的可以放4块主板;或者是放2个节点的2U Narrow。

随着CPU和GPU功率密度越来越高,48V开始走进我们的视野。如上图:48V供电可以来自服务器电源或者机架集中的铜排,然后PDB可以转换为12V供应主板,也可能把48V给主板之后再通过VR降压。我就不具体聊了...

扩展阅读《OCP AI/ML研讨会资料:数据中心机架、供电、散热

OCP NIC 3.1 D-SFF与传统的SFF网卡相比,应该是支持更大的尺寸、功率,以及更多PCIe lane连接数。


周日的时间有限,简单给大家写一点分享吧。

今天的参考资料,来自《2025 OCP EMEA Summit会议资料》里的“What's New in MHS”,演讲人分别来自AMD、Intel和Jabil。

MHS是(Modular Hardware System)的缩写,该组织挂在OCP Server项目的下面,与NIC Project(也就是制订OCP NIC标准的)工作组并列。MHS下辖3部分,除了最主要的DC-MHS Project之外,还有DC-SCM也就是BMC管理模块项目,以及针对边缘计算的Edge-MHS。

在参与企业里面,国外的互连网4巨头中只缺AWS(AWS一直没加入OCP组织,包括Arm服务器也是自己搞)。国内服务器厂商只看到H3C,另一家销量领先的,好像是自己另拉了个标准山头吧。

在HPM(Host Processor Module)Classes规范v1.1中的M-SDNO,定义了几种主板尺寸。

左边的2款是半宽/为1S单处理器优化,其中上面的Class A在19英寸服务器机箱中应该可以横向并排放2块;Class B较宽一些主要针对21英寸机箱(在19英寸中也能放一块)。Class A定义了2个PCIe Riser位置,看图应该是x16 lane;而Class B主板则增加到3个Riser,在SCM的右侧(包含NIC模块)的区域被称为Platform Custom Zone,可以放E1.S SSD启动盘。(注:都是按照前出线或称front I/O)

半宽——左右并排2个节点的设计,相对会拥挤一些。右边则是2种全宽主板:

右上方的Class C只针对19英寸机箱,可以左右排布2个CPU Socket,最多支持5个PCIe Riser,在SCM模块右侧有较大的“Platform custom zone”位置;而更宽的Class D则针对21英寸,支持的Riser增加到6个。

上图中间的这个示意,应该是支持把主板上的2颗CPU拆分为2个Node,这时它们就可以分别连接各自的SCM和NIC模块了。我记得也有共用的方案,比如Multi-Host网卡,ASPEED的BMC芯片AST2750就是支持双节点管理的。

最右边那个示意,每个服务器节点再加一颗xPU,我理解应该是像NVIDIA NVL2那样,形成CPU+GPU的组合。(参考《Meta的GB200液冷AI服务器 - Catalina》)

新的Class E还是草案标准,与之前的M-FLW HPM相比,Class E最大的特点是“左右不对称”,这样电源模块可以位于同一侧。适用于哪些客户?要看机架的PDU规划了。

边缘服务器,尺寸上最大的特点是“短深度”。右下方的示意图中也可以支持多节点,比如在2U机箱里,1U Narrow的可以放4块主板;或者是放2个节点的2U Narrow。

随着CPU和GPU功率密度越来越高,48V开始走进我们的视野。如上图:48V供电可以来自服务器电源或者机架集中的铜排,然后PDB可以转换为12V供应主板,也可能把48V给主板之后再通过VR降压。我就不具体聊了...

扩展阅读《OCP AI/ML研讨会资料:数据中心机架、供电、散热

OCP NIC 3.1 D-SFF与传统的SFF网卡相比,应该是支持更大的尺寸、功率,以及更多PCIe lane连接数。


注:本文只代表作者个人观点,与任何组织机构无关,如有错误和不足之处欢迎在留言中批评指正。如果您想在这个公众号上分享自己的技术干货,也欢迎联系我:)

尊重知识,转载时请保留全文。感谢您的阅读和支持!

控制面板
您好,欢迎到访网站!
  查看权限
网站分类
最新留言