AMD在台北国际电脑展上发布了几项相当重要的公告:其新的InstinctMI325X加速器(如图所示),将于2024年第四季度上市;即将推出的基于CDNA4架构的InstinctMI350系列将于明年推出;以及基于CDNA“Next”的全新InstinctMI400系列产品,将于2026年问世。
也许最重要的公告是,AMD更新后的产品路线图承诺每年发布一次,确保通过增强的指令集和更高的内存容量和带宽不断提高AI和HPC性能。
AMDInstinctMI325X将于2024年第四季度发布,将配备高达288GB的HBM3E内存和6TB/s的内存带宽。据AMD称,与Nvidia的H100相比,MI325X的推理性能和令牌生成能力将提高1.3倍。必须记住,AMD的InstinctMI325X将与Nvidia的H200甚至B100/B200加速器竞争。
随后,基于AMDCDNA4架构的MI350系列预计将于2025年推出。该系列有望将AI推理性能提高35倍,优于当前的MI300系列。InstinctMI350系列将采用3nm级工艺技术,并支持新的数据格式(FP4和FP6)和指令,以提高AI性能和效率。
AMD表示,AMDROCm6软件堆栈在最大限度地提高MI300X加速器的性能方面发挥着至关重要的作用。该公司的基准测试表明,使用八个MI300X加速器的系统在MetaLlama-370B模型推理和令牌生成方面的表现比Nvidia的H100高出1.3倍。根据AMD的测试,单个MI300X加速器在Mistral-7B模型任务中也表现出卓越的性能,比其竞争对手高出1.2倍。
云服务提供商和系统集成商对AMDInstinctMI200和MI300系列产品的采用也在加速。MicrosoftAzure将这些加速器用于OpenAI服务,DellT将它们集成到PowerEdge企业AI机器中,联想和HPE将它们用于其服务器。
AMD数据中心加速计算公司副总裁BradMcCredie表示:“AMDInstinctMI300X加速器继续受到众多合作伙伴和客户的大力采用,包括MicrosoftAzure、Meta、戴尔科技、HPE、联想等,这直接得益于AMDInstinctMI300X加速器卓越的性能和价值主张。凭借我们每年更新的产品节奏,我们不断创新,提供AI行业的领先能力和性能,我们的客户期望推动数据中心AI训练和推理的下一次发展。”