英特尔、微软、谷歌、Facebook、HPE、思科、Dell-EMC、华为、阿里巴巴共同创建了Compute Express Link,这是一种用于芯片到芯片通信的高速互连技术。
数据中心领域的一些知名企业已经联系起来开发另一种高速互连,这种互连旨在连接处理器芯片。
它被称为Compute Express Link或CXL,旨在将数据中心CPU插入加速器芯片。制定规范的联盟成员包括英特尔、微软、谷歌、Facebook、HPE、思科、Dell-EMC,以及华为和阿里巴巴。
那么IBM、AMD、Nvidia、Xilinx或Marvell/Cavium等ARM服务器供应商在哪里?他们有自己的PCIeNASED规范,称为CCIX。该集团由AMD、ARM、Mellanox、高通、Xilinx和华为组成。
还有由IBM公司领导的OpenCapi项目,包括由AMD、Google、IBM、Mellanox、Micron、Nvidia、HPE、DellEMC和Xilinx于2016年10月成立的OpenCapi财团。所以其中几个是双重浸透,而其他人似乎都选择了双方。难道不喜欢技术上的统一吗?
什么是Compute Express Link(CXL)?
该联盟将CXL技术描述为“在连接的设备上保持CPU内存空间和内存之间的内存一致性,从而允许资源共享以获得更高的性能、降低软件堆栈的复杂性和降低总体系统成本”。英特尔公司在一份声明中说,“这允许用户只关注目标工作负载,而不是加速器中的冗余内存管理硬件。”
CXL基于第五代PCI Express物理和电气协议,使用x16通道为CXL提供高达128GB/s的传输速度。它有三种接口协议:用于发送命令和接收状态更新的I/O协议,允许主机处理器通过加速器有效共享物理内存的存储器协议,以及用于资源共享的数据一致性接口。
它的基本功能是允许CPU、SOC、GPU和FPGA直接对话并共享内存。现在的工作方式是,如果一个CPU想把内容发送到一个FPGA,它必须通过以太网端口,这个端口要慢得多,并且在接收芯片得到它之前要经过大约六个接口。因此,CXL将允许直接和快速的芯片到芯片通信,这将有助于数据中心的规模变得越来越大。
CXL比CCIX和Open CAPI有一个优势。OpenCAPI和CCIX是平衡的,这意味着发送器和接收器具有相同的复杂度,并且随着传输的扩展,发送器和接收器的复杂性都会增加。CXL像USB一样不对称地运行,因此所有繁重的工作都在处理器端完成,应该在那里完成。因此,CXL具有更大的可扩展性。
创始成员英特尔公司指出,压缩、加密和人工智能(AI)等专业工作负载的增加带来了异构计算的更多使用,其中专用计算加速器通常与通用CPU并行工作。
“CXL在CPU和工作负载加速器(如GPU、FPGA和网络)之间创建了高速,低延迟的互连。CXL维护设备之间的内存一致性,允许资源共享以获得更高的性能,降低软件堆栈的复杂性,并降低整体系统成本。”英特尔数据中心集团执行副总裁兼总经理Navin Shenoy在一份声明中表示。
该规范的1.0版本将在computeexpresslink.org上发布,因此尚未启动。这些公司成员表示他们将从2021年开始推出产品。
相关阅读: