AMD如期举办了“AMD数据中心与人工智能技术首映会”,并在会上推出的AI处理器MI300系列。其中,特别为大语言模型优化的MI300X将于今年晚些时候开始向部分客户发货。
AMD CEO苏姿丰先介绍MI300A,这是全球首款针对AI和高性能计算(HPC)的加速处理器(APU)加速器。在13个小芯片中遍布1460亿个晶体管。相比前代MI250,MI300的性能提高八倍,效率提高五倍。
随后,苏姿丰公布了本场发布会最受关注的产品——MI300X,这是一款为大语言模型进行了优化的版本。
“我喜欢这个芯片,”苏姿丰说,MI300X芯片及其CDNA架构是为大型语言模型和其他尖端人工智能模型设计的。
生成式人工智能应用程序的大型语言模型使用大量内存,因为它们运行越来越多的计算。AMD演示了MI300X运行400亿参数的Falcon模型。OpenAI的GPT-3模型有1750亿个参数。
她还用Hugging Face基于MI300X的大模型写了一首关于活动举办地旧金山的一首诗。
苏姿丰表示,MI300X提供的HBM(高带宽内存)密度是英伟达H100的2.4倍,HBM带宽是竞品的1.6倍。这意味着AMD可以运行比英伟达H100更大的模型。
“模型尺寸越来越大,你实际上需要多个GPU来运行最新的大型语言模型,”苏姿丰指出,随着AMD芯片上内存的增加,开发人员将不需要那么多GPU,可为用户节省成本。
AMD还表示,将推出一款Infinity Architecture,在一个系统中集成8个M1300X加速器。英伟达和谷歌也开发了类似的系统,将8个或更多GPU集成在一个盒子里,用于人工智能应用。
好的芯片不仅是产品本身,还需要有一个好的生态。人工智能开发人员历来偏爱英伟达芯片的一个原因是,它有一个开发完善的软件包,称为CUDA,使他们能够访问芯片的核心硬件功能。
为了对标英伟达的CUDA,AMD推出了自己的芯片软件“ROCm”,打造自己的软件生态。
苏姿丰也对投资者和分析师表示,人工智能是该公司“最大、最具战略意义的长期增长机会”,“我们认为,数据中心人工智能加速器(市场)将以超过50%的复合年增长率,从今年的300亿美元左右增长到2027年的1500亿美元以上。”
以ChatGPT等为首的大语言模型需要最顶尖性能的GPU来进行运算,如今这一市场英伟达处于绝对优势,拥有80%的市场,而AMD则被视为一个有力的挑战者。
虽然AMD未披露价格,但此举可能会给英伟达GPU带来价格压力,如后者的H100,其价格能够达到3万美元以上。较低的GPU价格可能有助于降低服务生成人工智能应用程序的高成本。
不过,AMD这场发布会众多产品从性能上都处于“领导”地位,但资本市场并未拉抬AMD的股价,反而收跌3.61%,而同行英伟达则收涨3.90%,市值首次收于1万亿美元关口上方。