A5下载 - 努力做内容最丰富最安全的下载站!

A5站长下载站

当前位置:A5下载 > 源码动态 > PyTorch 1.6 发布:原生支持自动混合精度训练并进入稳定阶段

PyTorch 1.6 发布:原生支持自动混合精度训练并进入稳定阶段

时间:2020-08-07 18:05作者:小静人气:87

PyTorch 1.6 稳定版已发布,此版本增加了许多新的 API、用于性能改进和性能分析的工具、以及对基于分布式数据并行(Distributed Data Parallel, DDP)和基于远程过程调用(Remote Procedure Call, RPC)的分布式训练的重大更新。部分更新亮点包括:

原生支持自动混合精度训练(automatic mixed-precision training),并已进入稳定阶段

为 tensor-aware 增加对 TensorPipe 的原生支持

在前端 API 增加了对 complex tensor 的支持

新的分析工具提供了张量级的内存消耗信息

针对分布式数据并行训练和远程过程调用的多项改进和新功能

此外,从该版本起,新功能的状态将分为三种,分别是稳定、Beta 和原型。原型功能即为新功能提案,团队如果能从用户获取对此的良好反馈,那么原型功能就会进入 Beta 阶段,否则就停止开发。另外,原型功能不包含在二进制发行版中,而是通过从 Nightly 版本源代码构建或通过 compiler flag 使用。详情查看此博客。

 

原生支持自动混合精度训练

由 Nvidia 贡献的自动混合精度训练功能已经进入稳定阶段,AMP 训练能在 Tensor Core GPU 上实现更高的性能并节省多达 50% 的内存。

AMP API 提供方便使用混合精度的方法。官方提到,在像线性层(Linear Layer)或是卷积操作上,float16 运算较快,但像 Reduction 运算又需要 float32 的动态范围,而现在有了 AMP 功能,便可以在部分运算操作使用 float16,另一部分则使用 float32,混合精度功能会尝试为每个运算使用相匹配的数据类型。

改进分布式训练

PyTorch 支持两种强大的范式:用于对模型进行完全同步数据并行训练的 DDP 和支持分布式模型并行的 RPC 框架。过去这两个功能独立运行,用户无法混合和匹配它们来尝试混合并行范式。

从 PyTorch 1.6 开始,DDP 和 RPC 可以无缝协作,用户可以结合这两种技术来实现数据并行和模型并行。官方举了一个例子,用户希望将大型嵌入表放置在参数服务器上,并使用 RPC 框架嵌入查找,但希望将较小的密集参数存储在训练器上,并使用 DDP 来同步密集参数,下面是示例代码:

// On each trainer

remote_emb = create_emb(on="ps", ...)

ddp_model = DDP(dense_model)

for data in batch:

with torch.distributed.autograd.context():

res = remote_emb(data)

loss = ddp_model(res)

torch.distributed.autograd.backward([loss])

支持 Complex Tensor

PyTorch 1.6 带来了对 complex tensor 的 Beta 支持,包含 torch.complex64 和 torch.complex128 dtypes 两种类型。Beta 阶段支持通用的 PyTorch 和 complex tensor,以及 Torchaudio、ESPnet 等所需的功能。

>>> x = torch.randn(2,2, dtype=torch.cfloat)

>>> x

tensor([[-0.4621-0.0303j, -0.2438-0.5874j],

[ 0.7706+0.1421j, 1.2110+0.1918j]])

详情查看 https://pytorch.org/blog/pytorch-1.6-released/

以上就是PyTorch 1.6 发布:原生支持自动混合精度训练并进入稳定阶段的全部内容,希望可以帮助到需要的朋友。

标签PyTorch,1.6,发布,原生,支持,自动,混合,精度

相关下载

查看所有评论+

网友评论

网友
您的评论需要经过审核才能显示

公众号