AMD发布MI300系列AI加速器,力压Nvidia产品速度1.6倍
近日,AMD在加利福尼亚举行的Advancing AI活动中发布备受期待的MI300系列产品,包括AI加速器MI300X和全球首款数据中心APU——MI300A。据称,MI300X在运行AI软件时将比竞争对手Nvidia产品更为迅捷。
图片
AI加速器晶片主要助力人工智能模型的开发,相较传统计算机处理器,在这一任务上表现更为卓越。此次AMD发布的MI300系列被视为其过去五年中最为重要的一次产品发布,将在备受瞩目的AI加速器市场与Nvidia展开竞争。
在Advancing AI活动上,AMD推出了备受期待的MI300系列产品,其CEO苏姿丰还对AI晶片产业规模做出了惊人的预测。未来四年,该产业市场有望超过4,000亿美元,比AMD在八月份给出的预测高出两倍多,显示出人们对人工智能硬件的极为乐观的预期。
对于大型语言模型而言,需要大量的内存支持。新发布的AMD晶片拥有超过1,500亿个晶体管,其在人工智能推理工作负载的性能比Nvidia H100高出1.6倍。
AMD对MI300系列取得科技巨头青睐充满信心,预计将为公司带来数十亿美元的收入。已知下了MI300系列处理器订单的客户包括微软、甲骨文、Meta Platforms、Meta、Google等。
然而,Nvidia也在紧锣密鼓地开发自家下一代晶片。明年上半年,H200将取代H100,性能至少与AMD部分产品相匹敌。
相关芯片品牌及型号:
AMD MI300X AI加速器
适用领域:人工智能模型开发,超越传统计算机处理器性能。
AMD MI300A 数据中心APU
适用领域:数据中心应用,结合CPU和GPU的强大性能。
Nvidia H100 AI加速器
适用领域:人工智能推理工作负载,竞争对手为AMD MI300X。
Nvidia H200 下一代晶片
适用领域:预计在人工智能硬件领域取得突破,性能匹敌AMD MI300系列。