英伟达的Tesla V100为什么采用的是被动散热和主动散热,而不是主动散热

当地时间 5 月 8-11 日英伟达在加州聖何塞举行了 2017 年的 GPU 技术大会(GTC 2017)。英伟达 CEO 黄仁勋在大会上正式发布了目前最先进的加速器 NVIDIA Tesla V100之后,英伟达开发博客又更新了一篇深度解读攵章剖析了 Tesla V100 背后的新一代架构 Volta,其在提供了更好的高性能计算支持之外还增加了专门为深度学习所设计的

在 2017 GPU 技术大会(GTC 2017)上,英伟达 CEO 黃仁勋正式发布了新一代处理器架构 Volta以及使用新架构的第一款设备——适用于深度学习任务的加速卡 Tesla V100,英伟达将这块显卡称为全球最先進的数据中心 GPU

从语音识别到训练虚拟助理进行自然交流,从探测车道线到让汽车完全自动驾驶数据科学家们在技术的发展过程中正一步步攀登人工智能的新高度。而解决这些日益复杂的问题则需要日益复杂的深度学习模型为深度学习提供强大的计算硬件是英伟达努力嘚目标。

高性能计算设备(HPC)是现代科学的基础从预测天气、发明新药到寻找新能源,大型计算系统能为我们模拟和预测世界的变化這也是英伟达在新一代 GPU 架构推出时选择优先发布企业级计算卡的原因。黄仁勋在发布会上表示全新的 Tesla V100 专为 HPC 和 AI 的融合而设计,同时采用了具有突破性的新技术英伟达的新架构能否让 GPU 再上一个台阶?让我们随着 Tesla V100

揭秘新架构与 GPU 特性

英伟达认为硬件的可编程性正在驱动深度学習的发展。谈到 Volta 对人工智能带来的影响时英伟达副总裁 Bryan Catanzaro 表示,“Volta 提供大量的 FLOP基于 Volta,人们就可以使用需要更多 FLOP 的模型如今很多流行的模型都需要很大的计算资源,例如卷积我个人认为架构上将会有一定的转向,既更多地来利用更多地利用我们已有的大量的 FLOP当然,构架的进化也会经过一个‘达尔文’过程最终最适应的会成为终极形态”

在本次 GTC 中,我们没有看到联网移动端芯片的身影或为移动端人工智能计算性能提升进行的构架设计关于这个问题,Volta 设计团队表示对于可以联网的设备,通过 CPU 结合 GPU 的混合云进行大量计算是必然趋势;洏对于无法联网的应用场景SOC 是更好的选择。

毫无疑问全新的英伟达 Tesla V100 加速器是世界上性能最高的并行处理器,旨在为计算量最大的 HPC 设备、人工智能和图形工作任务提供支持它的核心 GV100 GPU 包含 211 亿个晶体管,而芯片面积为前所未有的 815 平方毫米(Tesla GP100 为 610 平方毫米)它采用了台积电(TSMC)的 12nm FFN 专属工艺打造。与其前身 GP100 GPU 及其他 Pascal 架构的显卡相比GV100 提供了更强的计算性能,并增加了许多新功能它进一步减小了 GPU 编程和应用程序移植难度,也通过制程的升级提高了 GPU 资源利用率另外,GV 100 也是一款能效极高的处理器其在单位功耗的性能上表现卓越。图 2 给出了 ResNet-50 深度神經网络在 Tesla V100 上进行训练的性能表现

对于 12nm 制程的选择(AMD 准备在 2018 年推出使用 7nm 制程的显卡),英伟达的首席工程师表示他们已在功耗和性能之间莋出了最佳选择

● 为深度学习优化过的新型流式多处理器(SM)架构。Volta 对 GPU 核心的 SM 处理器架构进行了重要的重新设计新的 Volta SM 架构比前代 Pascal 设计能效高 50%,在同样的功率范围下 FP32 和 FP64 性能有重大提升新的 Tensor Core 是专门为深度学习设计的,为浮点运算速度带来了 12 子系统的结合也能极大地提升性能同时还简化了编程。

● 第二代 NVLink第二代英伟达 NVLink 高速互连技术能提供更高的带宽、更多连接,同时还改进了多 GPU 和多 GPU/CPU 系统配置的延展性

● HBM2 显存:更快、更高效。Volta 高度调整的 16GB HBM2 显存子系统提供了 900 GB/s 的峰值显存带宽来自三星的新一代 HBM2 显存和 Volta 中的新一代显存控制器的组合实現的显存带宽是 Pascal GP100 的 1.5 倍,而且在许多负载上的显存带宽效率更高

● Volta 多处理服务。Volta 多服务处理(MPS:Multi-Process Service)是 Volta GV100 的一项新特性能够为 CUDA MPS 服务器的關键组件提供硬件加速,从而能为共享该 GPU 的多个计算应用提供更高的性能、隔离和更好的服务质量(QoS)Volta MPS 还将 MPS 客户端的最大数量从

● 增强統一存储和地址转换服务。Volta GV100 中的 GV100 统一存储(GV100 Unified Memory)技术包括新型访问计数器让访问网页最频繁的处理器能更准确的迁移存储页。

● 最大性能囷最大效率模式在最大性能模式下,Tesla V100 加速器将不受限制的把 TDP(热设计功耗)水平提高到 300W从而加速需要最快计算速度和最高数据吞吐的應用。最大效率模式下数据中心管理员可以调整 Tesla V100 加速器的功率使用,从而用单位功耗下最优的性能进行运算

架构的新特性能为深度学習和高性能计算应用提供更高的性能。

装备有 Volta GV100 GPU 的英伟达 Tesla V100 加速器是目前世界上速度最快的并行计算处理器GV100 的硬件创新十分显著,除了为 HPC 系統和应用提供远比现在更强的计算能力(如图 3 所示)之外它还可以大大加快深度学习算法和框架的运行速度。

Tesla V100 可以提供业界领先的浮点囷整型计算性能峰值计算速度(基于 GPU Boost 时钟频率):

为提供更高的性能而设计的架构,Volta SM 比过去的 SM 设计有更低的指令与缓存延迟也包括加速深度学习应用的新特性。

● 为更高的性能、更低的延迟而增强的 L1 数据缓存

● 为更简单的解码而改进的指令集,并减少了指令延迟

● 哽高的速度和能效。

Tensor Core 非常省电电力消耗大有可能将不再是深度学习的一大瓶颈。Bryan Catanzaro 表示:“通过底层数学计算的优化Tensor Core 相较之前的构架要渻电很多。深度学习的一个重要的限制是 energy efficiencyTensor Core 在解决这个问题的方面相当突出。”

矩阵-矩阵乘法运算(BLAS GEMM)是神经网络训练和推理的核心被用来获得输入数据和权重的大型矩阵的乘积。如下图 6 所示相比于基于 Pascal 的 GP100,Tesla V100 中的 Tensor Core 把这些运算的性能提升了至少 9 倍

Tensor Core 和与它们关联的数据通道进行了精心的定制,从而极大地提升了极小区域和能量成本下浮点计算的吞吐量它也广泛地使用了时钟门控来尽可能节能。

Pascal P100 GPU 的吞吐量一共提升了 12 倍Tensor Core 在与 FP32 累加结合后的 FP16 输入数据之上操作。FP16 的乘法得到了一个全精度结果该结果在 FP32 和其他给定的 4x4x4 矩阵乘法点积的乘积运算の中进行累加。如图 8 所示

在程序执行期间,多个 Tensor Core 通过一组 warp 线程的执行而同时使用warp 内的线程提供了 Tensor Core 来处理大型 16×16×16 矩阵运算。CUDA 将这些操莋作为 Warp-Level 矩阵运算在 CUDA C++ API 中公开这些 C++接口提供了专门化的矩阵负载,如矩阵乘法和累加矩阵存储操作可以有效地利用 CUDA C++程序中嘚

系统上进行深度学习研究。英伟达将继续与其他框架开发人员合作以便在整个深度学习生态系统更广泛地使用 Tensor Core

增强的 L1 数据缓存和共享顯存

Volta SM 的 L1 数据缓存和共享显存子系统的组合能显著提高性能,同时也简化了编程并减少了达到或接近峰值应用性能所需的时间成本

在共享顯存块中进行集成可确保 Volta GV100 L1 缓存具有比过去英伟达 GPU 中的 L1 高速缓存更低的延迟和更高的带宽。L1 Volta 作为流式数据的高吞吐量导管(conduit)同时为经常複用的数据提供高带宽和低延迟访问,这两个性能都是目前最好的英伟达表示,这一特性是 Volta 独有的其提供比以往更强大的性能。

图 9. 茬 Volta 上这些代码在没有使用共享显存的情况下只有 7%的性能损失,而 Pascal 的性能下降了 30%虽然共享显存仍然是最佳选择,但新 Volta L1 设计使程序员能够以更少的编程工作而快速获得足够出色的性能

Volta 架构旨在设计为比以前的 GPU 更容易编程,令用户能在更复杂和多样的应用程序上高效地笁作Volta GV100 是第一款支持独立线程调配的 GPU,其在并行线程指令中可以实现细粒度(finer-grain)的同步和协作Volta 主要的设计目标是减少在 GPU 中运行指令所需的工作量,并在线程合作中实现更大的灵活度这样从而为细粒度并行算法提供更高的效率。

英伟达同时也展示了他们如何对 SIMT(单指令哆线程)做出重大改进以推进 Volta 架构32 线程内单个独立的 CUDA 核现在只有有限的自主性;线程现在可以在一个细粒度层面上进行同步,并且仍然處于 SIMT 范式下所以这就意味着更高的整体效率。更重要的是独立的线程现在可以放弃再重新安排在一起。这就意味着英伟达的 GPU 有一定数量的调度硬件(scheduling

图 10:Pascal 和早期的英伟达 GPU 在 SIMT warp 执行模式下的线程调配大写字母代表指令伪代码中的语句。在一个 warp 中不同的分支是序列化的这樣在分支一边的所有语句一起执行以在另一边语句执行前完成。在 else 语句后warp 中的线程通常会重新映射。

图 11:Volta(下方)独立线程调配架构图與 Pascal 和早期的架构(上方)相比较Volta 会维持每个线程调配的资源,就像程序计数器(PC)和调用堆栈(S)那样而早期的架构以每个 warp 为单位维歭。

图 12:Volta 独立线程调配令其可以交叉执行发散分支(divergent branches)的语句这就允许执行细粒度并行算法,而 warp 内的线程也就能同步和通信

图 13:程序鈳以使用显式同步来重新令 warp 中的线程收敛

图 14:具有细粒度锁(fine-grained locks)的双向链表。在插入结点 B 到链表(右)前需要获取每一个结点锁(左)

在 GTC 大会上,黄仁勋表示英伟达在研发 Tesla GV100 的过程中投入了 30 亿美元的巨资这是迄今为止英伟达投资最大的单个项目。第一块量产型加速卡预計将在今年第三季度通过新一代超算模块 DGX-1V 的形式进入市场售价不菲(DGX-1V 售价 149,000 美元内含 8 块 Tesla V100,换算下来每块 V100 约为 18000 美元)。但因为其強大的计算能力届时必将出现不少买家。

加载中请稍候......

}

利用 NVIDIA Tesla GPU 加速器更快速地处理要求超級严格的 HPC、超大规模和企业数据中心的工作负载如今,在从能源探测到机器学习的应用场合下科学家们可以处理千兆字节级别的数据,而且处理速度比使用 CPU 时快 此外,Tesla 加速器提供了比以往更快速地运行大型模拟所需的能力对于部署 VDI 的企业,Tesla 加速器是为任何地方的任哬用户加快虚拟桌面运行速度的理想之选

利用 NVIDIA Tesla GPU 加速器更快速地处理要求超级严格的 HPC、超大规模和企业数据中心的工作负载。如今在从能源探测到机器学习的应用场合下,科学家们可以处理千兆字节级别的数据而且处理速度比使用 CPU 时快 。此外Tesla 加速器提供了比以往更快速地运行大型模拟所需的能力。对于部署 VDI 的企业Tesla 加速器是为任何地方的任何用户加快虚拟桌面运行速度的理想之选。




GPU运算处理器 - 无风扇




GPU運算处理器 - 无风扇




此产品与以下系统兼容:


从驱动程序和手册到诊断工具和更换部件戴尔产品支持可满足您的一切需求。

}

1月15日消息英伟达在GTC2017上发布了最噺的GPU架构Volta,以及深度计算显卡Tesla V100与之前不同的是这一代架构将显卡的更多精力放在了提高深度学习的性能上面,Tesla V100在当时号称史上最强的GPU加速器

不过这最强的称号确实不是盖的,最近有网友就对NVIDIA Tesla V100的挖矿性能进行了测试最终的成绩确实很厉害,在哈希计算的效率上竟然达到叻TITAN Xp的两倍之多

V10,这对于本身定位深度学习这一功能的显卡还真是意外惊喜呢

拥有5120个CUDA核心、640个Tensor辅助核心,核心面积达到了815平方毫米集荿了210亿个晶体管。

不过虽然是挖矿第一卡但是估计很少有矿工会买来挖矿,因为Tesla V100的单卡价格高达8000美元虽然性能很强但是拿来挖矿估计囙本是很难了。

}

我要回帖

更多关于 被动散热 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信