亚马逊与英伟达合作探秘芯片进程,全球首个云端GH200芯片亮相!
亚马逊AWS在re:Invent大会揭晓多年自研芯片历程,携手英伟达推动Ceiba项目,创新Graviton 4处理器及Trainium 2芯片。CEO黄仁勋亲临现场,宣布AWS成为首家在云端配备英伟达GH200 Grace Hopper超级芯片的云厂商。同时,中国市场发布计划未定。
亚马逊AWS与英伟达强强联手
亚马逊AWS在最新re:Invent大会中披露了其硬件领域的前瞻性举措,正与英伟达深度合作,共同推动Ceiba项目。该项目旨在构建全球最快的GPU驱动AI超级计算机,搭载16384颗英伟达H200超级芯片,处理速度高达65 EFLOPS,为AI运算提供强力支持。
Trainium 2和Graviton 4震撼登场
AWS宣布推出专为训练人工智能系统设计的Trainium 2芯片,以及通用Graviton 4处理器。此次发布成为全球首个在云端配置英伟达GH200 Grace Hopper芯片的突破性时刻。然而,在中国市场的发布时间仍未敲定,AWS高管表示需根据客户需求和其他因素来决定。
AWS对英伟达GPU的运行优势
AWS计算和网络副总裁大卫•布朗表示,AWS与英伟达的密切合作基于长期投入和资源投放,确保在运行英伟达GPU方面胜过竞争对手。在大会上,英伟达CEO黄仁勋分享了过去几年AWS在云中部署的200万个使用Ampere和Hopper架构的GPU,相当于3000 EFLOPS的运算性能,这是一个“惊人”的数字。
“双管齐下”策略的原因
AWS选择同时与英伟达合作并自研芯片,以确保客户有更多选择。布朗解释说,这种“双管齐下”的策略旨在推动客户体验和独立创新,因为不同工作负载可能在Trainium上或英伟达上更为合适。他表示,“选择是如此重要,它推动了正向的客户体验,最终将带来最好的结果。”
Ceiba项目及环境友好
Ceiba项目不仅服务于英伟达,英伟达将拥有自己的超级计算机,同时提供DGX云服务给最终客户。AWS也将向客户提供英伟达GH200 NVL32的多节点集群,共同推动AI超级计算机的发展。
在与英伟达的合作中,AWS不仅关注性能,还积极面对成本和环境问题。大卫•布朗表示,AWS将在2030年实现碳中和,数据中心使用的电力将来自绿色能源,包括风、水和太阳能。此外,采用Graviton芯片相比同类产品可减少60%的电力使用,Trainium 2更是比前一代芯片少用一倍的能量。
未来展望与成本优化
AWS高管表示,生成式人工智能作为新兴领域,必须经历概念验证和确保适应企业损益表的阶段。与企业合作时,他们发现企业实际上需要较小的模型来适应特定用例,从而降低成本、提高准确性和性能。
相关品牌及型号:
Intel Xeon Scalable Processors
型号:例如,Intel Xeon Platinum 8280
适用范围:主要用于企业级数据中心,云计算,虚拟化等高性能计算领域。
AMD EPYC Processors
型号:例如,AMD EPYC 7742
适用范围:面向数据中心和云服务,提供卓越的多核性能,适用于虚拟化、云计算和高性能计算工作负载。
NVIDIA A100 Tensor Core GPUs
型号:例如,NVIDIA A100 80GB
适用范围:专注于深度学习和人工智能任务,广泛用于训练和推理工作负载,提供卓越的AI性能。
ARM Neoverse N1
型号:例如,AWS Graviton2基于ARM Neoverse N1
适用范围:面向云计算和数据中心,具有高度灵活性和能效,适用于多种通用工作负载。
Qualcomm Centriq Processors
型号:例如,Qualcomm Centriq 2460
适用范围:面向云服务和数据中心,专注于性能和能效平衡,适用于虚拟化、存储和网络应用。