新2网址 欧博平台 外围投注网

汽车

您的位置:莱西新闻热线 > 汽车 > 正文

Google借助计算引擎A2 VMs在云中推出了首批NVIDIA

点击率:    时间:2020-07-19

Google宣布基于NVIDIA Ampere A100 Tensor Core GPU在Google Compute Engine上引入了Accelerator-Optimized VM(A2)系列。A2在单个VM中最多可提供16个GPU,并且是公共云中第一个基于A100的产品。

Google设计了A2虚拟机系列,以提高其客户的培训和推理计算性能。A2具有基于新NVIDIA Ampere架构的NVIDIA A-100 Tensor Core图形处理单元。根据博客文章,A-100的计算性能是上一代GPU的20倍,并配备40 GB的高性能HBM2 GPU内存。此外,A2 VM配备多达96个Intel Cascade Lake vCPU,可选的本地SSD,用于需要更快地将数据馈送到GPU和高达100 Gbps网络的工作负载。

当客户的工作负载要求更高时,A2提供带有16个A100 GPU的a2-megagpu-16g实例,其中包括总共640 GB的GPU内存,1.3 TB的系统内存以及通过NVSwitch连接的所有组件,最高可提供聚合带宽为9.6TB / s。

请注意,A2还提供了较小的配置,使客户可以满足他们对GPU计算能力的需求。客户可以选择五种配置,从一到16个GPU,具有两种不同的CPU和网络对GPU的比率-由于Ampere的多实例组(MIG)功能,每个GPU最多可划分为七个GPU实例。。

NVIDIA加速计算部门总经理兼副总裁Ian Buck在最近的公司博客中写道,A-100在GCP上的可用性:

在云数据中心中,A100可以支持广泛的计算密集型应用程序,包括AI培训和推理,数据分析,科学计算,基因组学,边缘视频分析,5G服务等。

借助A2系列,虚拟机Google进一步扩展了预定义和自定义虚拟机的产品范围,从计算到加速器优化的机器。此外,该公司将继续与其他云竞争厂商如微软,该公司最近发布了新的通用和各种内存优化VM家庭英特尔芯片组(AVX-512) -和AWS,它最近发布了基于其EC2 INF1实例Inferentia筹码。这些新的VM类型中有许多是针对具有AI和机器学习工作负载的客户的。

Constellation Research Inc,www.4343.cc.首席分析师兼副总裁说:

云领导力之战主要是在AI之战中进行的,而这就是使企业的AI负载吸引到每个供应商的云中。中间是诸如NVidia之类的平台供应商,它们提供跨云平台和内部部署选项。因此,随着Google将最新的Nvidia平台引入其Google Cloud,它使CxO可以更轻松地将AI工作负载跨内部和(Google)云迁移。

上一篇:南昌县东新乡:统筹兼顾 防汛征收两不误

下一篇:没有了