NVIDIA® Tesla® V100/ V100S

产品亮点:NVIDIA Volta 架构通过在一个统一架构内搭配使用 NVIDIA® CUDA® 内核和 Tensor 内核,配备 NVIDIA® Tesla® V100 GPU的单台服务器可以取代数百台通用 CPU 服务器来处理传统的 HPC 和深度学习。TENSOR CORE 技术NVIDIA® Tesla® V100 配有 640 个 Tensor 核心,可提供 125 万亿次级的深度学习性

产品亮点:

NVIDIA Volta 架构

通过在一个统一架构内搭配使用 NVIDIA® CUDA® 内核和 Tensor 内核,配备 NVIDIA® Tesla® V100 GPU的单台服务器可以取代数百台通用 CPU 服务器来处理传统的 HPC 和深度学习。

TENSOR CORE 技术

NVIDIA® Tesla® V100 配有 640 个 Tensor 核心,可提供 125 万亿次级的深度学习性能。与 NVIDIA Pascal™ GPU 相比,可为深度学习训练提供 12 倍张量浮点运算能力;为深度学习推理提供 6 倍张量浮点运算能力。

新一代 NVLINK

NVIDIA® Tesla® V100 中采用的 NVIDIA® NVLink 可提供 2 倍于上一代的吞吐量。8 块 NVIDIA® Tesla® V100 加速器能以高达 300 GB/s 的速度互联,从而发挥出单个服务器所能提供的高应用性能。

超强节能模式

全新的超大节能模式可允许数据中心在现有的功耗预算内,使每个机架提升高达40% 的计算能力。在此模式下,NVIDIA® Tesla® V100 以最大处理效率运行时,可提供高达 80% 的性能而只需一半的功耗。

HBM2 显存

NVIDIA® Tesla® V100 将 900 GB/s 的改良版原始带宽与高达 95%的 DRAM 利用效率相结合,在 STREAM 上测量时可提供高于 NVIDIA Pascal™ GPU 1.5 倍的显存带宽。

可编程性

NVIDIA® Tesla® V100 的架构设计初衷即是为了简化可编程性。其全新的独立线程调度能力可实现细粒度同步,并能通过在琐碎的工作之间共享资源进而提升 GPU 的利用率。



规格参数 



V100 PCIEV100 SXM2V100S PCIE
GPU 架构NVIDIA Volta

NVIDIA Tensor

核心数量

640

NVIDIA CUDA ®

核心数量

5120
双精度浮点运算性能7 TFLOPS7.8 TFLOPS8.2 TFLOPS
单精度浮点运算性能14 TFLOPS15.7 TFLOPS16.4 TFLOPS
Tensor 性能112 TFLOPS125 TFLOPS130 TFLOPS
GPU 显存32 GB 或 16 GB HBM232 GB HBM2
显存带宽900 GB/s1134 GB/s
纠错码支持
互联带宽32 GB/s300 GB/s32 GB/s
系统接口PCIe 3.0NVIDIA NVLink ™PCIe 3.0
外形尺寸

PCIe 全高 / 全长

SXM2

PCIe 全高 / 全长

功耗

250 瓦

300 瓦250 瓦
散热解决方案

被动式

  计算APICUDA、DirectCompute、OpenCL ™ 、OpenACC

*数据来源NVIDIA官网

电话咨询
产品中心
在线询价
QQ客服