*具有稀疏性
90%
提供应用性能
250 W
功率
PCIe
构成因素
各种不同的设备,
高可达7m/s 5gb
多实例GPU
NVIDIA NVLink600 GB/s**
PCIe Gen4 64 GB/s
互连线
1,555 GB/s
GPU存储带宽
1,248TOPS | 2,496TOPS*
GPU存储器
40GB
峰值INT4张量核心
624 TOPS | 1,248TOPS*
峰值INT8张量核心
312 TF | 624 TF*
峰值FP16张量核心
312 TF | 624 TF*
峰值BFLOAT16张量核心
156 TF | 312 TF*
张量浮点数32(TF32)
19.5 TF
峰FP32
19.5 TF
峰FP64张量核心
9.7 TF
峰FP64
企业级
利用率
数据分析
高性能计算
(HPC)
深度学习
训练推理
新一代的NVLINK
稀疏优化
多执行个体GPU(MIG)
第三代Tensor核心
HBM2记忆体
NVIDIA安培架构
**通过HGX A100服务器主板的SXM GPU;通过NVLink Bridge的PCIe GPU多
可支持2个GPU
添加文字
四年内将HPC性能提高11倍
深度学习推理
结构稀疏性支持使A100的其他推理性能提高达2倍之多
在大型的模特训练中,高达3倍的人工智能训练
深度学习推理
深度学习训练
人工智能网络有数以百万计的参数。不是所有的参数都需要准确的预测,可以将参数被转换成零,使模型“稀疏”而不影响准确性性。
A100中的张量核可以为稀疏模型提供高达2倍的性能。稀疏性特征更有利于人工神经网络,同时也能提高模型训练的性能。
多实例GPU(MIG)的推理能力提高7倍
企业就绪的利用
大数据分析基准测试速度比A100 40GB快2倍
高性能数据分析
一个A100GPU可以被分割成多达7个 GPU 应用个体,在硬件层完全隔离,并拥有自己的高带宽内存、缓存和运算核心。Mig 为开发人员提供了所有应用的突破性加速,管理员可以为每个任务提供合适大小的 gpu 加速,优化利用率,并扩展对每个用户和应用程序的访问。
商品评价
100%好评
共有人参与评分评价商品