使用 Azure 机器学习 SDK (v1) 大规模训练 PyTorch 模型

适用于:Python SDK azureml v1

本文介绍了如何使用 Azure 机器学习在企业范围内运行 PyTorch 训练脚本。

本文中的示例脚本用来对鸡和火鸡图像进行分类,以基于 PyTorch 的迁移学习教程构建深度学习神经网络 (DNN)。 迁移学习是一种将解决某个问题时获得的知识应用于虽然不同但却相关的问题的技术。 与从头开始训练相比,迁移学习需要较少的数据、时间和计算资源,从而缩短了训练过程。 有关迁移学习的详细信息,请参阅深度学习与机器学习一文。

无论是从头开始训练深度学习 PyTorch 模型,还是将现有模型引入云中,都可以通过 Azure 机器学习使用弹性云计算资源来横向扩展开源训练作业。 你可以通过 Azure 机器学习来构建、部署和监视生产级模型以及对其进行版本控制。

先决条件

在以下任一环境中运行此代码:

  • Azure 机器学习计算实例 - 无需下载或安装

    • 完成快速入门:开始使用 Azure 机器学习,以创建一个预加载了 SDK 和示例存储库的专用笔记本服务器。
    • 在笔记本服务器上的示例深度学习文件夹中,通过导航到以下目录,找到已完成且已展开的笔记本:how-to-use-azureml > ml-frameworks > pytorch > train-hyperparameter-tune-deploy-with-pytorch 文件夹。
  • 你自己的 Jupyter 笔记本服务器

    此外,还可以在 GitHub 示例页上找到本指南的完整 Jupyter Notebook 版本。 该笔记本包含扩展部分,其中涵盖智能超参数优化、模型部署和笔记本小组件。

在运行本文中的代码以创建 GPU 群集之前,需要为工作区请求增加配额

设置试验

本部分通过加载所需的 Python 包、初始化工作区、创建计算目标和定义训练环境来设置训练实验。

导入程序包

首先,导入必需的 Python 库。

import os
import shutil

from azureml.core.workspace import Workspace
from azureml.core import Experiment
from azureml.core import Environment

from azureml.core.compute import ComputeTarget, AmlCompute
from azureml.core.compute_target import ComputeTargetException

初始化工作区

Azure 机器学习工作区是服务的顶级资源。 它提供了一个集中的位置来处理创建的所有项目。 在 Python SDK 中,可以通过创建 workspace 对象来访问工作区项目。

根据在先决条件部分中创建的 config.json 文件创建工作区对象。

ws = Workspace.from_config()

获取数据

该数据集针对火鸡和鸡分别包含了大约 120 个训练图像,每个类有 100 个验证图像。 在训练脚本 pytorch_train.py 中,我们将下载并提取该数据集。 这些图像是 Open Images v5 Dataset 的子集。 有关创建 JSONL 以使用自己的数据进行训练的更多步骤,请参阅此 Jupyter 笔记本

准备训练脚本

在本教程中,已提供了训练脚本 pytorch_train.py。 实际上,你可以原样接受任何自定义的训练脚本,并使用 Azure 机器学习运行它。

为训练脚本创建一个文件夹。

project_folder = './pytorch-birds'
os.makedirs(project_folder, exist_ok=True)
shutil.copy('pytorch_train.py', project_folder)

创建计算目标

创建用于运行 PyTorch 作业的计算目标。 在此示例中,创建启用了 GPU 的 Azure 机器学习计算群集。

重要

在创建 GPU 群集之前,需要为工作区请求增加配额


# Choose a name for your CPU cluster
cluster_name = "gpu-cluster"

# Verify that cluster does not exist already
try:
    compute_target = ComputeTarget(workspace=ws, name=cluster_name)
    print('Found existing compute target')
except ComputeTargetException:
    print('Creating a new compute target...')
    compute_config = AmlCompute.provisioning_configuration(vm_size='STANDARD_NC6', 
                                                           max_nodes=4)

    # Create the cluster with the specified name and configuration
    compute_target = ComputeTarget.create(ws, cluster_name, compute_config)

    # Wait for the cluster to complete, show the output log
    compute_target.wait_for_completion(show_output=True, min_node_count=None, timeout_in_minutes=20)

如果要改为创建 CPU 群集,请为 vm_size 参数提供不同的 VM 大小,例如 STANDARD_D2_V2。

有关计算目标的详细信息,请参阅什么是计算目标一文。

定义环境

若要定义封装训练脚本的依赖项的 Azure 机器学习环境,可以定义自定义环境或使用 Azure 机器学习特选环境。

使用特选环境

或者,如果不想定义你自己的环境,也可使用 Azure 机器学习提供的预生成的特选环境。 有几个适用于 PyTorch 的 CPU 和 GPU 特选环境,这些环境对应不同版本的 PyTorch。

若要使用特选环境,可以改为运行以下命令:

curated_env_name = 'AzureML-PyTorch-1.6-GPU'
pytorch_env = Environment.get(workspace=ws, name=curated_env_name)

若要查看特选环境中包含的包,可以将 conda 依赖项写入磁盘:

pytorch_env.save_to_directory(path=curated_env_name)

确保特选环境包括训练脚本所需的所有依赖项。 如果没有,则必须修改环境以包含缺少的依赖项。 如果修改了环境,则必须为它提供新名称,因为“AzureML”前缀是为特选环境保留的。 如果修改了 conda 依赖项 YAML 文件,则可以使用新名称从该文件创建新环境,例如:

pytorch_env = Environment.from_conda_specification(name='pytorch-1.6-gpu', file_path='./conda_dependencies.yml')

如果改为直接修改了特选环境对象,则可以使用新名称克隆该环境:

pytorch_env = pytorch_env.clone(new_name='pytorch-1.6-gpu')

创建自定义环境

还可以创建自己的 Azure 机器学习环境,以封装训练脚本的依赖项。

首先,在 YAML 文件中定义 conda 依赖项;在本例中,该文件名为 conda_dependencies.yml

channels:
- conda-forge
dependencies:
- python=3.7
- pip=21.3.1
- pip:
  - azureml-defaults
  - torch==1.6.0
  - torchvision==0.7.0
  - future==0.17.1
  - pillow

基于此 conda 环境规范创建 Azure 机器学习环境。 此环境将在运行时打包到 Docker 容器中。

在默认情况下,如果未指定基础映像,Azure 机器学习将使用 CPU 映像 azureml.core.environment.DEFAULT_CPU_IMAGE 作为基础映像。 由于本示例在 GPU 群集上运行训练,因此你需要指定具有必要 GPU 驱动程序和依赖项的 GPU 基础映像。 Azure 机器学习维护一组在 Microsoft Container Registry (MCR) 上发布的基础映像,你可以使用这些映像。 有关详细信息,请参阅AzureML 容器 GitHub 存储库

pytorch_env = Environment.from_conda_specification(name='pytorch-1.6-gpu', file_path='./conda_dependencies.yml')

# Specify a GPU base image
pytorch_env.docker.enabled = True
pytorch_env.docker.base_image = 'mcr.microsoft.com/azureml/openmpi3.1.2-cuda10.1-cudnn7-ubuntu18.04'

提示

或者,也可以直接在自定义 Docker 映像或 Dockerfile 中捕获所有依赖项,然后从中创建环境。 有关详细信息,请参阅通过自定义映像进行训练

有关创建和使用环境的详细信息,请参阅在 Azure 机器学习中创建和使用软件环境

配置和提交训练运行

创建 ScriptRunConfig

创建一个 ScriptRunConfig 对象,以指定训练作业的配置详细信息,包括训练脚本、要使用的环境,以及要在其上运行的计算目标。 如果在 arguments 参数中指定,训练脚本的任何参数都将通过命令行传递。 以下代码将配置单节点 PyTorch 作业。

from azureml.core import ScriptRunConfig

src = ScriptRunConfig(source_directory=project_folder,
                      script='pytorch_train.py',
                      arguments=['--num_epochs', 30, '--output_dir', './outputs'],
                      compute_target=compute_target,
                      environment=pytorch_env)

警告

Azure 机器学习通过复制整个源目录来运行训练脚本。 如果你有不想上传的敏感数据,请使用 .ignore 文件或不将其包含在源目录中。 请改为使用 Azure 机器学习数据集来访问数据。

有关通过 ScriptRunConfig 配置作业的详细信息,请参阅配置并提交训练运行

警告

如果你以前使用 PyTorch 估算器来配置 PyTorch 训练作业,请注意,自 1.19.0 SDK 发行版起,该估算器已弃用。 对于 >= 1.15.0 版本的 Azure 机器学习 SDK,建议使用 ScriptRunConfig 作为配置训练作业(包括使用深度学习框架的作业)的方法。 有关常见的迁移问题,请参阅估算器到 ScriptRunConfig 迁移指南

提交运行

运行对象在作业运行时和运行后提供运行历史记录的接口。

run = Experiment(ws, name='Tutorial-pytorch-birds').submit(src)
run.wait_for_completion(show_output=True)

在运行执行过程中发生的情况

执行运行时,会经历以下阶段:

  • 准备:根据所定义的环境创建 docker 映像。 将映像上传到工作区的容器注册表,缓存以用于后续运行。 还会将日志流式传输到运行历史记录,可以查看日志以监视进度。 如果改为指定特选环境,则会使用支持该特选环境的缓存映像。

  • 缩放:如果 Batch AI 群集执行运行所需的节点多于当前可用节点,则群集将尝试纵向扩展。

  • 正在运行:将脚本文件夹中的所有脚本上传到计算目标,装载或复制数据存储,然后执行 script。 将 stdout 和 ./logs 文件夹中的输出流式传输到运行历史记录,即可将其用于监视运行。

  • 后期处理:将运行的 ./outputs 文件夹复制到运行历史记录。

注册或下载模型

训练模型后,可以将其注册到工作区。 凭借模型注册,可以在工作区中存储模型并对其进行版本控制,从而简化模型管理和部署

model = run.register_model(model_name='pytorch-birds', model_path='outputs/model.pt')

提示

部署指南包含有关模型注册的部分,但由于你已有一个已注册的模型,因而可以直接跳到创建计算目标进行部署。

此外,还可以使用“运行”对象下载模型的本地副本。 在训练脚本 pytorch_train.py 中,一个 PyTorch“保存”对象将模型保存到本地文件夹(计算目标的本地)。 可以使用“运行”对象下载副本。

# Create a model folder in the current directory
os.makedirs('./model', exist_ok=True)

# Download the model from run history
run.download_file(name='outputs/model.pt', output_file_path='./model/model.pt'), 

分布式训练

Azure 机器学习还支持多节点分布式 PyTorch 作业,以便可以缩放训练工作负荷。 你可以轻松运行分布式 PyTorch 作业,Azure 机器学习将为你管理业务流程。

Azure 机器学习支持使用 Horovod 和 PyTorch 的内置 DistributedDataParallel 模块来运行分布式 PyTorch 作业。

有关分布式训练的更多信息,请参阅分布式 GPU 训练指南

导出到 ONNX

若要使用 ONNX 运行时优化推理,请将训练后的 PyTorch 模型转换为 ONNX 格式。 推理或模型评分是将部署的模型用于预测(通常针对生产数据)的阶段。 有关示例,请参阅将模型从 PyTorch 导出到 ONNX 教程

后续步骤

在本文中,你使用 Azure 机器学习中的 PyTorch 训练并注册了一个深度学习神经网络。 若要了解如何部署模型,请继续参阅模型部署一文。