「昂贵Nvidia vs 便宜AMD之战」Meta和微软等巨头宣布采购
长期以来,AMD一直希望其AI晶片能在市场上获得更多关注,特别是在Nvidia主导的AI晶片市场上取得更好的业绩。对于Meta、OpenAI、微软等AI晶片大买家而言,他们也期望市场上有更多的AI晶片供应商,以避免对单一厂商的依赖,并通过此举降低成本。随着AMD最新AI晶片Instinct MI300X预计明年初开始大规模供应,上述大买家已公开表示将下单采购,作为更经济的替代方案。
在AMD的「Advancing AI」活动上,Meta、OpenAI、微软和甲骨文等公司表明将采用AMD最新的AI晶片Instinct MI300X。这是迄今为止AI科技巨头表明寻找替代昂贵Nvidia图形处理器的最新重要声明。
对于创建和部署OpenAI ChatGPT等AI应用程序而言,Nvidia GPU一直发挥着至关重要的作用。如果AMD MI300X在价格上真的便宜得多,必然会对Nvidia不断攀升的AI晶片销售率和增长趋势造成巨大压力。
AMD现面临着几个关键问题。首先,一直严重依赖Nvidia的公司是否愿意在另一家GPU供应商身上投入时间和资金。正因如此,AMD首席执行官蘇姿丰认为,要让这些AI科技巨头采用AMD GPU还有很大的努力空间。
另一个关键问题是,Nvidia开发了行业标准CUDA软件,这也是当前AI开发者忠实支持Nvidia的主要因素之一。对此,AMD专门改进了自家ROCm软件套件,以便能够与CUDA一较高下。最后是价格问题,因为AMD在活动上并未透露MI300X的定价,但AMD必须确保MI300X的购买和运营成本比Nvidia晶片(每颗约4万美元)更低,才能说服客户购买。
目前,AMD已与一些“最渴望GPU”的公司签署了MI300X的使用协议。据市场研究公司Omidia指出,2023年Nvidia H100 GPU的两大买家分别为Meta和微软。Meta表示,他们将使用MI300X GPU处理像AI贴图、图像编辑、AI助理等AI推理工作负载。微软技术长Kevin Scott表示,该公司将通过Azure Web应用程序服务提供对MI300X晶片的访问。
此外,OpenAI决定旗下专门用于开发机器学习算法的GPU编程语言Triton将支持AMD MI300X。甲骨文Oracle Cloud Infrastructure(OCI)计划在该公司面向AI的高性能加速运算实例中新增基于AMD MI300X GPU的裸机实例。
AMD预计,2024年该公司数据中心GPU的总收入约为20亿美元,相较于Nvidia最近一个季度超过140亿美元的数据中销售额(同时包括GPU以外晶片),仍存在巨大差距。AMD表示,随着市场对高端AI晶片的需求大增,2027年AI GPU整体市场规模将上看4000亿美元,这也是AMD全力投注在AI GPU产品线上的原因。蘇姿丰相信,AMD有望在其中分得不错的一杯羮。
相关芯片品牌及型号:
1. Nvidia A100 Tensor Core GPU
适用领域:深度学习训练与推理、高性能计算、科学研究。
2. Intel Nervana NNP-T
适用领域:深度学习训练、推理、自然语言处理、计算机视觉。
3. Google Tensor Processing Unit (TPU)
适用领域:人工智能加速、机器学习、谷歌云平台服务。
4. Qualcomm Cloud AI 100
适用领域:云端AI推理、边缘计算、自动驾驶、物联网。
5. IBM PowerAI
适用领域:大规模深度学习、超级计算、医学图像分析。