AMD希望人们记住,英伟达并不是唯一一家销售人工智能芯片的公司。它宣布推出适用于运行大型语言模型(LLM)的新加速器和处理器。
该芯片制造商推出了InstinctMI300X加速器和InstinctM1300A加速处理单元(APU),该公司表示,它们可用于训练和运行法学硕士。该公司表示,MI300X的内存容量是之前M1250X版本的1.5倍。AMD表示,这两款新产品都比前代产品拥有更好的内存容量和更高的能效。
AMD首席执行官苏姿丰(LisaSu)表示:“法学硕士的规模和复杂性不断增加,需要大量内存和计算。”“我们知道GPU的可用性是人工智能采用的最重要的驱动因素。”
Su在一次演讲中表示,MI300X“是世界上性能最高的加速器”。她声称MI300X在训练LLM方面与Nvidia的H100芯片相当,但在推理方面表现更好——与Meta的Llama2(一个700亿参数的LLM)一起使用时,比H100好1.4倍。
AMD与Microsoft合作,将MI300X放入其Azure虚拟机中。作为Su演讲嘉宾之一的Microsoft首席技术官KevinScott还宣布,AzureNDMI300X虚拟机(于11月首次发布)现已推出预览版。Meta还宣布将在其数据中心部署MI300处理器。
Su表示,AMD发布了用于数据中心的MI300AAPU,预计该产品将使其潜在市场总额增长至450亿美元。APU通常结合CPU和GPU以实现更快的处理速度。AMD表示,MI300A提供更高性能的计算、更快的模型训练以及30倍的能效提升。AMD表示,与H100相比,它的内存容量是H100的1.6倍。它还具有统一内存,因此无需再从不同设备移动数据。
MI300A将为惠普企业在劳伦斯利弗莫尔国家实验室建造的ElCapitan超级计算机提供动力。ElCapitan被认为是最强大的超级计算机之一,预计将提供超过2exaflops的性能。
MI300AAPU“现已投入生产,并将被内置到数据中心中。”
定价信息无法立即获得。
苏在代码大会上调侃了MI300芯片,称AMD很高兴有机会吸引更多芯片用户,不仅来自云提供商,还来自企业和初创公司。
AMD还宣布了其Ryzen处理器的最新成员Ryzen8040,它可以将更多原生AI功能引入移动设备。该公司表示,8040系列的AI处理性能是之前型号的1.6倍,并集成了神经处理单元(NPU)。
该公司表示,Ryzen8040不会仅限于AI处理,因为它声称与英特尔芯片等竞争产品相比,视频编辑速度将提高65%,游戏速度将提高77%。
AMD预计宏碁、华硕、戴尔、惠普、联想和Razer等制造商将在2024年第一季度发布集成Ryzen8040芯片的产品。
Su表示,下一代StrixPointNPU将于2024年发布。
AMD还宣布RyzenAI软件平台现已广泛使用,这将使开发人员能够在Ryzen驱动的笔记本电脑上构建AI模型,将模型卸载到NPU中,从而降低CPU的功耗。用户将获得对语音识别模型Whisper等基础模型和Llama2等法学硕士的支持。
为了为人工智能模型提供动力,并利用当前对该技术的炒作,AMD、Nvidia和英特尔等公司已经陷入了一场基本上是人工智能芯片的军备竞赛。到目前为止,Nvidia凭借其备受追捧的H100GPU占据了最大的市场份额,该GPU用于训练OpenAI的GPT等模型。