机器学习洞察 | 分布式训练让机器学习更加快速准确

机器学习能够基于数据发现一般化规律的优势日益突显,我们看到有越来越多的开发者关注如何训练出更快速、更准确的机器学习模型,而分布式训练 (Distributed Training) 则能够大幅加速这一进程。

亚马逊云科技开发者社区为开发者们提供全球的开发技术资源。这里有技术文档、开发案例、技术专栏、培训视频、活动与竞赛等。帮助中国开发者对接世界最前沿技术,观点,和项目,并将中国优秀开发者或技术推荐给全球云社区。如果你还没有关注/收藏,看到这里请一定不要匆匆划过,点这里让它成为你的技术宝库!

关于在亚马逊云科技上进行分布式训练的话题,在各种场合和论坛我们讨论了很多。随着 PyTorch 这一开源机器学习框架被越来越多的开发者在生产环境中使用,我们也将围绕它展开话题。本文我们将分别探讨在 PyTorch 上的两种分布式训练:数据分布式训练,以及模型分布式训练。

首先我们来看看当今机器学习模型训练的演进趋势中,开发者对模型训练结果的两种迫切需求:

  • 更快速

  • 更准确

更快速的数据分布式训练

对于机器学习模型训练来说,将庞大的训练数据有效拆分,有助于加快训练速度。

常见的数据分布式训练方式有两种:

基于参数服务器的数据分布式训练

异步)参数服务器 (Parameter Server) : 如 TensorFlow Parameter Server Strategy

对于参数服务器 (Parameter Server) 来说,计算节点被分成两种:

  • Workers:保留一部分的训练数据,并且执行计算;

  • Servers:共同维持全局共享的模型参数。

而 Workers 只和 Servers 有通信,Workers 相互之间没有通信。

参数服务器方式的优点开发者都很熟悉就不赘述了,而参数服务器的一个主要问题是它们对可用网络带宽的利用不够理想,Servers 常常成为通信瓶颈

由于梯度在反向传递期间按顺序可用,因此在任何给定的时刻,从不同服务器发送和接收的数据量都存在不平衡。有些服务器正在接收和发送更多的数据,有些很少甚至没有。随着参数服务器数量的增加,这个问题变得更加严重。

基于 Ring ALL-Reduce 的数据分布式训练

(同步)Ring All-Reduce: 如 Horovod 和 PyTorch DDP

Ring All-Reduce 的网络连接是一个环形,这样就不需要单独的 GPU 做 Server。6 个 GPU 独立做计算,用各自的数据计算出各自的随机梯度,然后拿 6 个随机梯度的相加之和来更新模型参数。为了求 6 个随机梯度之和,我们需要做 All-Reduce。在全部的 GPU 都完成计算之后,通过 Ring All-Reduce 转 2 圈(第 1 圈加和,第 2 圈广播这个加和),每个 GPU 就有了 6 个梯度的相加之和。注意算法必须是同步算法,因为 All-Reduce 需要同步(即等待所有的 GPU 计算出它们的梯度)。

Ring All-Reduce 的主要问题是:

  • 通过 Ring All-Reduce 转圈传递信息时,例如:G0 传递给 G1 时,其它 GPU 都在闲置状态;因此,这种步进时间越长,GPU 闲置时间就越长;而 GPU 越多这种通信代价就越大;

  • All-Reduce 的资源会占用宝贵的 GPU 资源,所以会在扩展的时候,面临效率挑战。

实例:Amazon SageMaker 数据并行的分布式方法

那么如何尽可能消除上述弊端?我们通过亚马逊云科技在 Amazon SageMaker 上的数据并行实例来演示如何解决这一问题。

SageMaker 从头开始构建新的 All-Reduce 算法,以充分利用亚马逊云科技网络和实例拓扑,利用 EC2 实例之间的节点到节点通信。

这样做的优势在于:

  • 引入了一种名为平衡融合缓冲区的新技术,以充分利用带宽。GPU 中的缓冲区将梯度保持到阈值大小,然后复制到 CPU 内存,分片成 N 个部分,然后将第 i 个部分发送到第 i 个服务器。平衡服务器发送和接收的数据,有效利用带宽。

  • 可以有效地将 All-Reduce 从 GPU 转移到 CPU。

我们能够重叠向后传递和 All-Reduce,从而缩短步进时间,释放 GPU 资源用于计算。

在这里分享关键的 PyTorch 代码步骤:

  1. 更新训练脚本

与非分布式训练不同的是,在这里我们输入 mdistributed.dataparallel.torch.torch_smdbp 的模型:

# Import SMDataParallel PyTorch Modules
import smdistributed.dataparallel.torch.torch_smddp
  1. 提交训练任务

在这里指定一个开关,打开数据并行即可。这样可以非常方便地调试,而不用在底层配置上花费时间。

# Training using SMDataParallel Distributed Training Frameworkdistribution={"smdistributed": {"dataparallel": {"enabled": True}}},debugger_hook_config=False,

您可以在 GitHub 上查看完整代码示例:

Amazon Sagemaker Examples

  • https://github.com/aws/amazon-sagemaker-examples/blob/main/training/distributed_training/pytorch/data_parallel/mnist/code/train_pytorch_smdataparallel_mnist.py?trk=cndc-detail

  • https://github.com/aws/amazon-sagemaker-examples/blob/main/training/distributed_training/pytorch/data_parallel/mnist/pytorch_smdataparallel_mnist_demo.ipynb?trk=cndc-detail

更准确的模型分布式训练

众所周知,模型越大,那么预测结果的准确度越高。

那么在面对庞大模型的时候如何进行模型并行?我们推荐开发者使用以下方式:

自动模型拆分

主要的优化策略基于内存使用和计算负载,从而更好地实现大模型的兼容。

  • 平衡内存使用:平衡每台设备上存储的可训练参数和激活次数的总数。

  • 平衡计算负载:平衡每台设备中执行的操作次数。

流水线执行计划

Amazon Sagemaker PyTorch SDK 中可以选择两种方式实现:

  • 简单流水线:需要等前项全部计算完之后才能进行后项的计算。

  • 交错流水线:通过更高效利用 GPU 来实现更好的性能,包括模型并行等方式。

Amazon SageMaker 分布式模型并行库的核心功能是流水线执行 (Pipeline Execution Schedule) ,它决定了模型训练期间跨设备进行计算和数据处理的顺序。流水线是一种通过让 GPU 在不同的数据样本上同时进行计算,从而在模型并行度中实现真正的并行化技术,并克服顺序计算造成的性能损失。

流水线基于将一个小批次拆分为微批次,然后逐个输入到训练管道中,并遵循库运行时定义的执行计划。微批次是给定训练微型批次的较小子集。管道调度决定了在每个时隙由哪个设备执行哪个微批次。例如,根据流水线计划和模型分区,GPU i 可能会在微批处理 b 上执行(向前或向后)计算,而 GPU i+1 对微批处理 b+1 执行计算,从而使两个 GPU 同时处于活动状态。

该库提供了两种不同的流水线计划,简单式和交错式,可以使用 SageMaker Python SDK 中的工作流参数进行配置。在大多数情况下,交错流水线可以通过更高效地利用 GPU 来实现更好的性能。

更多相关信息可参考:

SageMaker 模型并行库的核心功能 - 亚马逊 SageMaker

PyTorch 模型并行的分布式训练的关键步骤如下(以PyTorch SageMaker Distributed Model Parallel GPT2 代码为例):

  1. 更新训练脚本

a. Import 模型并行模块

b. 带入参数的模型并行的初始化 smp.int (smp_config)

详细代码请参考:https://github.com/aws/amazon-sagemaker-examples/blob/main/training/distributed_training/pytorch/model_parallel/gpt2/train_gpt_simple.py?trk=cndc-detail

  1. 提交训练任务

a. 消息传递接口 (MPI) 是编程并行计算机程序的基本通信协议,这里可描述每台机器上的 GPU 数量等参数

b. 激活模型分布式训练框架和相关配置等

详细代码请参考:https://github.com/aws/amazon-sagemaker-examples/blob/main/training/distributed_training/pytorch/model_parallel/gpt2/train_gpt_simple.py?trk=cndc-detail

实例:Amazon SageMaker 分布式训练

训练医疗计算机视觉 (CV) 模型需要可扩展的计算和存储基础架构。下图案例向您展示如何将医疗语义分割训练工作负载从 90 小时减少到 4 小时。

图片来源:官方博客《使用 Amazon SageMaker 训练大规模医疗计算机视觉模型》

解决方案中使用了 Amazon SageMaker 处理进行分布式数据处理,使用 SageMaker 分布式训练库来加快模型训练。数据 I/O、转换和网络架构是使用 PyTorch 和面向人工智能的医疗开放网络 (MONAI) 库构建的。

在下篇文章中,我们将继续关注无服务器推理,请持续关注 Build On Cloud 微信公众号。

往期推荐

  • 机器学习洞察 | 挖掘多模态数据机器学习的价值

作者黄浩文

亚马逊云科技资深开发者布道师,专注于 AI/ML、Data Science 等。拥有 20 多年电信、移动互联网以及云计算等行业架构设计、技术及创业管理等丰富经验,曾就职于 Microsoft、Sun Microsystems、中国电信等企业,专注为游戏、电商、媒体和广告等企业客户提供 AI/ML、数据分析和企业数字化转型等解决方案咨询服务。

 文章来源:https://dev.amazoncloud.cn/column/article/63e32dd06b109935d3b77259?sc_medium=regulartraffic&sc_campaign=crossplatform&sc_channel=CSDN

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.hqwc.cn/news/21787.html

如若内容造成侵权/违法违规/事实不符,请联系编程知识网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

1130 - Host XXX‘ is not allowed to connect to this MySQL server

mysql 连接报错 这个问题是因为在数据库服务器中的mysql数据库中的user的表中没有没有用户 解决的方法: 登入mysql后,更改 “mysql” 数据库里的 “user” 表里的 “host” 项,从”localhost”改称’%’。 1、连接服务器: mysql -u root -p…

性能测试持续学习 Docker 新建镜像,启动 POD

目录 前言: 1、构建镜像 2、使用已有镜像启动 Pod 前言: 在进行性能测试时,持续学习Docker的使用可以帮助测试团队更好地管理测试环境和资源。通过使用Docker,可以轻松创建和管理测试环境的镜像,并通过启动POD来快…

分布式搜索 (二)

一、DSL 查询文档 1. DSL Query 的分类 Elasticsearch 提供了基于 JSON 的 DSL (Domain Specific Language) 来定义查询 常见的查询类型包括: ① 查询所有:查询出所有数据,一般测 试用 例如:match_all ② 全文检索 (full text) …

这么看,项目经理根本不可能失业

早上好,我是老原。 不知道做项目经理的朋友们有没有这种感觉,明明项目经理是一个高大上的管理岗位,但为何总觉得自己的工作是一个打杂的? 最近就有一个粉丝朋友来和我吐槽:明明是升职,为啥感觉被坑了。 …

基于 MNN 在个人设备上流畅运行大语言模型

LLM(大语言模型)因其强大的语言理解能力赢得了众多用户的青睐,但LLM庞大规模的参数导致其部署条件苛刻;在网络受限,计算资源有限的场景下无法使用大语言模型的能力;低算力,本地化部署的问题亟待…

【测试开发】自动化测试 selenium 篇

目录 一. 什么是自动化测试 二. selenium 1. selenium的工作原理 2. seleniumJava的环境搭建(Chrome浏览器) 三. selenium中常用的API 1. 定位元素 findElement 1.1 css选择语法 1.2 xpath 2. 操作测试对象 2.1 sendKeys-在对象上模拟按键输入 2.2 click-点击对象…

IP 协议的相关特性

目录 IP协议有三大特点:无连接、无状态、不可靠。 四位版本号 四位头部长度 八位服务类型: 十六位总长度 16 位标识, 3 位标志, 13 位片偏移 八位生存时间 八位协议 十六位首部校验和 关于IP v4地址不够的问题 ip地址动态分配: ip地址转换(NAT) 数据传输…

【xxl-job】分布式任务调度系统xxl-job搭建

XXL-JOB是一个轻量级分布式任务调度平台,其核心设计目标是开发迅速、学习简单、轻量级、易扩展、开箱即用。 更多介绍,请访问官网:分布式任务调度平台XXL-JOB 一、任务调度中心(基于docker)【Version 2.4.0】 前提条件:任务调度…

复习Javascript数组

JavaScript 数组 JS 数字属性JS 数组方法 JavaScript 数组用于在单一变量中存储多个值。 var cars ["Saab", "Volvo", "BMW"]; 什么是数组? 数组是一种特殊的变量,它能够一次存放一个以上的值。 如果您有一个项目清…

MySQL表单查询以及多表查询

1.单表查询 CREATE TABLE emp ( empno int(4) NOT NULL, ename varchar(255) CHARACTER SET utf8 COLLATE utf8_general_ci NULL DEFAULT NULL, job varchar(255) CHARACTER SET utf8 COLLATE utf8_general_ci NULL DEFAULT NULL, mgr int(4) NULL DEFAULT NULL, hi…

IOP JPCS独立出版 | 2023年第二届材料科学与工程国际会议(CoMSE 2023)

会议简介 Brief Introduction 2023年第二届材料科学与工程国际会议(CoMSE 2023) 会议时间:2023年7月21日-23日 召开地点:中国泰州 大会官网:www.icomse.org CoMSE 2023由四川大学、华南理工大学亚热带建筑科学国家重点实验室、国际电气电子与…

Raft算法之日志复制

Raft算法之日志复制 一、日志复制大致流程 在Leader选举过程中,集群最终会选举出一个Leader节点,而集群中剩余的其他节点将会成为Follower节点。Leader节点除了向Follower节点发送心跳消息,还会处理客户端的请求,并将客户端的更…