Intel CPU互联方案初探 : 弯曲评论

来源:百度文库 编辑:神马文学网 时间:2024/04/24 02:09:10

Intel CPU互联方案初探

【陈怀临注:下面的N张图,基本上表达了Intel从FSB开始,到现在QPI的系统互联方案。MCH就是传说中的北桥(North Bridge);ICH就是传说中的南桥(South Bridge)。图一的FSB是Intel在2004年之前的方案。带宽为4.2GB/s。图二是Intel在2005年的双FSB方案,带宽为12.8GB/s。图三是Intel在2007的四FSB方案,带宽为34GB/s。其他的就是QPI的互联了。图四和图五中的双红线就是QPI的互联。为什么画Doubled Red Line?这里要凸显的其实就是一个QPI Port(例如Nehalem-EX是4个QPI Port)是有两个独立的,单向的QPI Link构成。这两个QPI Link是可以工作在不同的Mode下的。例如发送(Tx)Link可以是工作在Full Width 20bit下;接收(Rx)Link可以被config成工作在10bit模式或者even 5bit/lane 模式下。图六显示的是一个拥有4个QPI port的8个CPU的互联。可以看见,我们不可能每个CPU只需要一个Hop,就能访问系统中的其他7个CPU。按照这个拓扑,任何一个CPU可以通过QPI与其他3个CPU Directly互联。与其他4个CPU需要跨一个QPI才能互联。其实把这个平面图拎起来,就是一个立方体(Cube),如图七所示。每个CPU就是这个立方体的节点。。。在这里问读者一个问题:QPI的4个Full Link可不可以被拆成8个Half的Link,从而可以使得每个CPU都与系统的其他7个CPU直接互联?换言之,一个CPU的一个20 Lane的QPI Link可以被分开成两个10bit 的Half-width Links,然后同时接到两个目的设备嘛?如果可以,接受端的QPI Link如何Config?请从QPI物理层Signal的角度来思考这个问题。如果可以,请自己画出拓扑;如果不能,为什么?图八显示的基于QPI的最后一种互联方式,也是最高端的互联模型–利用外挂的Node Controller,或者说QPI Fabric,或者说,Glue逻辑,把一个整机系统的CPU互联在一起。图八是HP的基于Xeon 7500(Nehalem-EX)PREMA的结构图。读者可以看到,每个CPU除了连接Local的IOH和另外一个CPU,其他的两个QPI Link都连接到Node Controller上。与系统中其他6个CPU的QPI通信,例如,Cache的Snoop transaction,都是通过Node Controller的。。。为什么在做高端服务器系统的时候,要用外挂的QPI Fabric?其实说到底,还是一句话:为了高速;低延时。有数据表明,在Glue-less的情况下,8Way的CPU互联,QPI的带宽有50%-65%被Cache Snooping的Traffic占据了。QPI可不是仅仅用来做Cache Snoop的,是要用来跨CPU,然后访问DDR3的。。。这样一搞,高端系统的性能就歇了。。。这就是为什么,>=8个CPU之后,一定要上胶水(Glue),利用QPI Fabric,来通信了。。。】


(3个打分, 平均:5.00 / 5)