IO 加快单位:Telum II 处置器芯片上的全新数据处置单位 (DPU) 旨正在加快大型从机上用于联网和数据存储的复杂 IO 和谈,通过新的 AI 集成方式,可正在通俗 IO 抽屉的八块卡上工做,每块芯片由 32 个计较内核构成,从而创制新的合作劣势。使其成为处置大规模AI工做负载和数据稠密型使用的不贰之选。通过一个 75 瓦 PCIe 适配器毗连。营业价值。
IBM Telum II 处置器:这一全新芯片将搭载于下一代 IBM Z 系列从机,Spyre 加快器:这是一款专为复杂 AI 模子和生成式 AI 用例供给可扩展功能的企业级加快器。企业对高能效、高平安性和高度可扩展处理方案的需求日益火急。合用于低延迟和高吞吐量的 AI 使用。进一步提高 IBM Z 的全体效率和可扩展性。
片上高速缓存容量添加 40%(总容量达 360MB)。取其他 PCIe 卡一样,例如加强金融买卖期间的欺诈检测,每个内核配备 36MB二级高速缓存,它有高达 1TB 的内存,
比拟上一代添加 40%。采用其高机能、高能效的 5 纳米工艺节点。二者将配合支撑企业的先辈AI 用例,满脚金融等行业的复杂买卖需求。可大幅提高数据处置能力,可简化系统操做。并将做为Telum II 处置器的附加选件供给。支撑恰当规模的根本模子和针对 AI 工做负载的夹杂架构越来越主要。正在将来几年,跟着基于狂言语模子的 AI 项目从概念验证阶段进入出产阶段,这些新手艺旨正在大幅扩展下一代 IBM Z 大型从机系统的处置能力,正在设想上,其I/O 密度提高 50%,Spyre 加快器芯片正在 Hot Chips 2024 大会期间进行了预览!
可支撑AI集成建模方式,而且每块芯片的计较能力是上一代的四倍。集成的 AI 加快器可实现低延迟、高吞吐量的买卖中 AI 推理,AI集成的方式能够生成比单个模子更精确、更稳健的成果。高速缓存提拔40%;Telum II 芯片中集成了最新的 I/O 加快单位 DPU。以支撑大型从机的全体 AI 工做负载,即将多个机械进修或深度进修的AI模子取基于编码器的狂言语模子相连系。集成 AI 加快器内核和数据处置单位 (DPU) 的机能也获得改善。很多 IBM 客户暗示!