使用 Azure 机器学习对模型进行超参数优化 (v1)
重要
本文中的一些 Azure CLI 命令使用适用于 Azure 机器学习的 azure-cli-ml
或 v1 扩展。 对 v1 扩展的支持将于 2025 年 9 月 30 日结束。 在该日期之前,你将能够安装和使用 v1 扩展。
建议在 2025 年 9 月 30 日之前转换为 ml
或 v2 扩展。 有关 v2 扩展的详细信息,请参阅 Azure ML CLI 扩展和 Python SDK v2。
使用 Azure 机器学习 (v1) HyperDrive 程序包自动执行高效的超参数优化。 了解如何完成通过 Azure 机器学习 SDK 优化超参数所需的步骤:
- 定义参数搜索空间
- 指定要优化的主要指标
- 为低性能运行指定提前终止策略
- 创建和分配资源
- 使用所定义的配置启动试验
- 将训练运行可视化
- 为模型选择最佳配置
什么是超参数优化?
超参数是可调整的参数,可用于控制模型训练过程。 例如,使用神经网络时,你决定隐藏层的数目以及每个层中的节点数。 模型性能很大程度上取决于超参数。
“超参数优化”(也称为“hyperparameter optimization”)是找到用于获得最佳性能的超参数配置的过程。 通常,该过程在计算方面成本高昂,并且是手动的。
Azure 机器学习使你能够自动执行超参数优化,并且并行运行试验以有效地优化超参数。
定义搜索空间
通过探索针对每个超参数定义的值范围来优化超参数。
超参数可以是离散的,也可以是连续的,并具有由参数表达式描述的值分布。
离散超参数
离散超参数将指定为离散值中的一个 choice
。 choice
可以是:
- 一个或多个逗号分隔值
range
对象- 任意
list
对象
{
"batch_size": choice(16, 32, 64, 128)
"number_of_hidden_layers": choice(range(1,5))
}
在这种情况下,batch_size
采用 [16、32、64、128] 中的一个值,number_of_hidden_layers
采用 [1、2、3、4] 中的一个值。
也可以使用一个分布来指定以下高级离散超参数:
quniform(low, high, q)
- 返回类似于 round(uniform(low, high) / q) * q 的值qloguniform(low, high, q)
- 返回类似于 round(exp(uniform(low, high)) / q) * q 的值qnormal(mu, sigma, q)
- 返回类似于 round(normal(mu, sigma) / q) * q 的值qlognormal(mu, sigma, q)
- 返回类似于 round(exp(normal(mu, sigma)) / q) * q 的值
连续超参数
将连续超参数指定为一个连续值范围内的分布:
uniform(low, high)
- 返回高低之间的均匀分布值loguniform(low, high)
- 返回根据 exp(uniform(low, high)) 绘制的值,使返回值的对数均匀分布normal(mu, sigma)
- 返回正态分布的实际值,包括平均值 μ 和标准方差 σlognormal(mu, sigma)
- 返回根据 exp(normal(mu, sigma)) 绘制的值,使返回值的对数呈正态分布
参数空间定义的示例:
{
"learning_rate": normal(10, 3),
"keep_probability": uniform(0.05, 0.1)
}
此代码定义具有两个参数(learning_rate
和 keep_probability
)的搜索空间。 learning_rate
包含平均值为 10、标准偏差为 3 的正态分布。 keep_probability
包含最小值为 0.05、最大值为 0.1 的均匀分布。
超参数空间采样
指定参数采样方法来取代超参数空间。 Azure 机器学习支持以下方法:
- 随机采样
- 网格采样
- 贝叶斯采样
随机采样
随机采样支持离散和连续超参数。 它支持提前终止低性能运行。 某些用户使用随机采样执行初始搜索,然后优化搜索空间来改善结果。
在随机采样中,超参数值是从定义的搜索空间中随机选择的。
from azureml.train.hyperdrive import RandomParameterSampling
from azureml.train.hyperdrive import normal, uniform, choice
param_sampling = RandomParameterSampling( {
"learning_rate": normal(10, 3),
"keep_probability": uniform(0.05, 0.1),
"batch_size": choice(16, 32, 64, 128)
}
)
网格采样
网格采样支持离散超参数。 如果你的预算允许在搜索空间中彻底进行搜索,请使用网格采样。 支持提前终止低性能运行。
网格采样对所有可能的值进行简单的网格搜索。 网格采样只能与 choice
超参数一起使用。 例如,以下空间有 6 个样本:
from azureml.train.hyperdrive import GridParameterSampling
from azureml.train.hyperdrive import choice
param_sampling = GridParameterSampling( {
"num_hidden_layers": choice(1, 2, 3),
"batch_size": choice(16, 32)
}
)
贝叶斯采样
贝叶斯采样基于贝叶斯优化算法。 它根据先前样本的表现情况来选取样本,以便新样本可以改善主要指标。
如果你有足够的预算来探索超参数空间,则建议使用贝叶斯采样。 为获得最佳结果,建议最大运行次数大于或等于正在优化的超参数数目的 20 倍。
并发运行的数目会影响优化过程的有效性。 数目较小的并发运行可能带来更好的采样收敛,因为较小的并行度会增加可从先前完成的运行中获益的运行的数量。
Bayesian 采样仅支持搜索空间中的 choice
、uniform
和 quniform
分布。
from azureml.train.hyperdrive import BayesianParameterSampling
from azureml.train.hyperdrive import uniform, choice
param_sampling = BayesianParameterSampling( {
"learning_rate": uniform(0.05, 0.1),
"batch_size": choice(16, 32, 64, 128)
}
)
指定主要指标
指定你希望让超参数优化对其进行优化的主要指标。 将根据此主要指标评估每个训练运行。 提前终止策略使用主要指标来识别低性能运行。
请为主要指标指定以下属性:
primary_metric_name
:主要指标的名称需要与训练脚本记录的指标的名称完全匹配。primary_metric_goal
:可以是PrimaryMetricGoal.MAXIMIZE
或PrimaryMetricGoal.MINIMIZE
,确定在评估运行时是要将主要指标最大化还是最小化。
primary_metric_name="accuracy",
primary_metric_goal=PrimaryMetricGoal.MAXIMIZE
此示例最大程度地提高了“准确度”。
记录用于超参数优化的指标
模型的训练脚本在模型训练期间必须记录主要指标,以便 HyperDrive 可以访问它以进行超参数优化。
使用以下示例代码片段在训练脚本中记录主要指标:
from azureml.core.run import Run
run_logger = Run.get_context()
run_logger.log("accuracy", float(val_accuracy))
训练脚本会计算 val_accuracy
,并将其记录为主要指标“准确度”。 每次记录指标时,超参数优化服务都会收到该指标。 你需要确定报告频率。
若要详细了解如何在模型训练运行中记录值,请参阅在 Azure 机器学习训练运行中启用日志记录。
指定提前终止策略
使用提前终止策略自动终止性能不佳的运行。 提前终止提高了计算效率。
你可以配置以下参数来控制何时应用该策略:
evaluation_interval
:应用策略的频率。 每次训练脚本都会将主要指标计数记录为一个间隔。 如果evaluation_interval
为 1,则训练脚本每次报告主要指标时,都会应用策略。 如果evaluation_interval
为 2,则会每隔一次应用该策略。 如果未指定,则默认将evaluation_interval
设置为 1。delay_evaluation
:将第一个策略评估延迟指定的间隔数。 这是一个可选参数,可让所有配置运行最小间隔数,避免训练运行过早终止。 如果已指定,则每隔大于或等于 delay_evaluation 的 evaluation_interval 倍数应用策略。
Azure 机器学习支持以下提前终止策略:
老虎机策略
老虎机策略基于松驰因子/松驰数量和评估间隔。 当主要指标不在最成功运行的指定松弛因子/松弛数量内时,Bandit 结束运行。
注意
贝叶斯采样不支持提前终止。 使用贝叶斯采样时,请设置 early_termination_policy = None
。
指定以下配置参数:
slack_factor
或slack_amount
:在最佳性能训练运行方面允许的松驰。slack_factor
以比率的形式指定允许的松驰。slack_amount
以绝对数量(而不是比率)的形式指定允许的松驰。例如,假设以间隔 10 应用老虎机策略。 另外,假设性能最佳的运行以间隔 10 报告了主要指标 0.8,目标是最大化主要指标。 如果策略指定的
slack_factor
为 0.2,则间隔为 10 时其最佳指标小于 0.66 (0.8/(1+slack_factor
)) 的任何训练运行都会被终止。evaluation_interval
:(可选)应用策略的频率delay_evaluation
:(可选)将第一个策略评估延迟指定的间隔数
from azureml.train.hyperdrive import BanditPolicy
early_termination_policy = BanditPolicy(slack_factor = 0.1, evaluation_interval=1, delay_evaluation=5)
在此示例中,指标报告时将在每个间隔应用提前终止策略,从评估间隔 5 开始。 其最佳指标小于最佳性能运行的 (1/(1+0.1) 或 91% 的任何运行将被终止。
中间值停止策略
中值停止是基于运行报告的主要指标的运行平均值的提前终止策略。 该策略计算所有训练运行的运行平均值,并终止其主要指标值低于平均值中值的运行。
此策略采用以下配置参数:
evaluation_interval
:应用策略的频率(可选参数)。delay_evaluation
:将第一个策略评估延迟指定的间隔数(可选参数)。
from azureml.train.hyperdrive import MedianStoppingPolicy
early_termination_policy = MedianStoppingPolicy(evaluation_interval=1, delay_evaluation=5)
在此示例中,将在每个间隔应用提前终止策略,从评估间隔 5 开始。 如果某个运行的最佳主要指标比所有训练运行中间隔 1:5 的运行平均值的中间值更差,则会在间隔 5 处终止该运行。
截断选择策略
截断选择在每个评估间隔取消给定百分比的性能最差的运行。 使用主要指标对运行进行比较。
此策略采用以下配置参数:
truncation_percentage
:要在每个评估间隔终止的性能最低的运行百分比。 一个介于 1 到 99 之间的整数值。evaluation_interval
:(可选)应用策略的频率delay_evaluation
:(可选)将第一个策略评估延迟指定的间隔数exclude_finished_jobs
:指定在应用策略时是否排除已完成的作业
from azureml.train.hyperdrive import TruncationSelectionPolicy
early_termination_policy = TruncationSelectionPolicy(evaluation_interval=1, truncation_percentage=20, delay_evaluation=5, exclude_finished_jobs=true)
在此示例中,将在每个间隔应用提前终止策略,从评估间隔 5 开始。 如果某个运行采用间隔 5 时的性能在采用间隔 5 的所有运行中处于 20% 的性能最低范围内,则会在间隔 5 处终止该运行,并将在应用策略时排除已完成的作业。
无终止策略(默认设置)
如果未指定策略,则超参数优化服务将让所有训练运行一直执行到完成。
policy=None
选择提前终止策略
- 对于既可以节省成本又不会终止有前景的作业的保守策略,请考虑使用
evaluation_interval
为 1 且delay_evaluation
为 5 的中间值停止策略。 这属于保守的设置,可以提供大约 25%-35% 的节省,且不会造成主要指标损失(基于我们的评估数据)。 - 如果想节省更多成本,则可以使用老虎机策略或截断选择策略,因为前者的可用可宽延时间更短,后者的截断百分比更大。
创建和分配资源
通过指定最大训练运行数来控制资源预算。
max_total_runs
:最大训练运行数。 必须是介于 1 到 1000 之间的整数。max_duration_minutes
:(可选)超参数优化试验的最长持续时间(分钟)。 此持续时间之后的运行会被取消。
注意
如果同时指定了 max_total_runs
和 max_duration_minutes
,在达到其中的第一个阈值时,会终止超参数优化试验。
此外,指定在超参数优化搜索期间要并行运行的最大训练运行数。
max_concurrent_runs
:(可选)可以并发运行的最大运行数。 如果未指定此项,所有运行都将并行启动。 如果指定了此项,则必须是 1 和 100 之间的整数。
注意
并发运行数根据指定计算目标中的可用资源进行限制。 请确保计算目标能够为所需的并发性提供足够的可用资源。
max_total_runs=20,
max_concurrent_runs=4
此代码会将超参数优化试验配置为总共最多使用 20 个运行,每次运行四个配置。
配置超参数优化试验
若要配置超参数优化试验,请提供以下信息:
- 所定义的超参数搜索空间
- 你的提前终止策略
- 主要指标
- 资源分配设置
- ScriptRunConfig
script_run_config
ScriptRunConfig 是将通过采样的超参数运行的训练脚本。 它定义每个作业的资源(单节点或多节点)和要使用的计算目标。
注意
script_run_config
中使用的计算目标必须具有足够的资源来满足你的并发级别。 有关 ScriptRunConfig 的详细信息,请参阅配置训练运行。
配置超参数优化试验:
from azureml.train.hyperdrive import HyperDriveConfig
from azureml.train.hyperdrive import RandomParameterSampling, BanditPolicy, uniform, PrimaryMetricGoal
param_sampling = RandomParameterSampling( {
'learning_rate': uniform(0.0005, 0.005),
'momentum': uniform(0.9, 0.99)
}
)
early_termination_policy = BanditPolicy(slack_factor=0.15, evaluation_interval=1, delay_evaluation=10)
hd_config = HyperDriveConfig(run_config=script_run_config,
hyperparameter_sampling=param_sampling,
policy=early_termination_policy,
primary_metric_name="accuracy",
primary_metric_goal=PrimaryMetricGoal.MAXIMIZE,
max_total_runs=100,
max_concurrent_runs=4)
HyperDriveConfig
设置传递给 ScriptRunConfig script_run_config
的参数。 script_run_config
反过来将参数传递给训练脚本。 以上代码片段取自示例笔记本使用 PyTorch 进行训练、超参数优化和部署。 在此示例中,将优化 learning_rate
和 momentum
参数。 运行的提前停止将由 BanditPolicy
决定,它将停止一个主要指标落在 slack_factor
之外的运行(请参阅 BanditPolicy 类引用)。
示例中的以下代码显示了如何接收、分析正在优化的值,并将其传递给训练脚本的 fine_tune_model
函数:
# from pytorch_train.py
def main():
print("Torch version:", torch.__version__)
# get command-line arguments
parser = argparse.ArgumentParser()
parser.add_argument('--num_epochs', type=int, default=25,
help='number of epochs to train')
parser.add_argument('--output_dir', type=str, help='output directory')
parser.add_argument('--learning_rate', type=float,
default=0.001, help='learning rate')
parser.add_argument('--momentum', type=float, default=0.9, help='momentum')
args = parser.parse_args()
data_dir = download_data()
print("data directory is: " + data_dir)
model = fine_tune_model(args.num_epochs, data_dir,
args.learning_rate, args.momentum)
os.makedirs(args.output_dir, exist_ok=True)
torch.save(model, os.path.join(args.output_dir, 'model.pt'))
重要
每次超参数运行都会从头开始重新启动训练,包括重新生成模型和所有数据加载器。 你可以通过使用 Azure 机器学习管道或手动过程在训练运行之前尽可能多地准备数据来最大程度降低该成本。
提交超参数优化试验
定义超参数优化配置后,请提交试验:
from azureml.core.experiment import Experiment
experiment = Experiment(workspace, experiment_name)
hyperdrive_run = experiment.submit(hd_config)
热启动超参数优化(可选)
确定模型的最佳超参数值可能是一个迭代过程。 你可以重复使用从前五个运行中获得的知识来加速超参数优化。
对热启动的处理方式不同,具体取决于采样方法:
- 贝叶斯采样:来自先前运行的试用将用作先验知识来选取新样本,并改善主要指标。
- 随机采样或网格采样:提前终止使用从以前的运行获得的知识来确定性能不佳的运行。
指定要从中开始热启动的父运行的列表。
from azureml.train.hyperdrive import HyperDriveRun
warmstart_parent_1 = HyperDriveRun(experiment, "warmstart_parent_run_ID_1")
warmstart_parent_2 = HyperDriveRun(experiment, "warmstart_parent_run_ID_2")
warmstart_parents_to_resume_from = [warmstart_parent_1, warmstart_parent_2]
如果取消了某个超参数优化试验,则可以从上一个检查点恢复训练运行。 但是,你的训练脚本必须处理检查点逻辑。
训练运行必须使用相同的超参数配置,并装载输出文件夹。 训练脚本必须接受 resume-from
参数,该参数包含要从中恢复训练运行的检查点或模型文件。 可以使用以下代码片段恢复单个训练运行:
from azureml.core.run import Run
resume_child_run_1 = Run(experiment, "resume_child_run_ID_1")
resume_child_run_2 = Run(experiment, "resume_child_run_ID_2")
child_runs_to_resume = [resume_child_run_1, resume_child_run_2]
可以配置超参数优化试验,使其从之前的试验中热启动,或者使用可选参数 resume_from
和 resume_child_runs
在配置中恢复单个训练运行:
from azureml.train.hyperdrive import HyperDriveConfig
hd_config = HyperDriveConfig(run_config=script_run_config,
hyperparameter_sampling=param_sampling,
policy=early_termination_policy,
resume_from=warmstart_parents_to_resume_from,
resume_child_runs=child_runs_to_resume,
primary_metric_name="accuracy",
primary_metric_goal=PrimaryMetricGoal.MAXIMIZE,
max_total_runs=100,
max_concurrent_runs=4)
可视化超参数优化运行
可以在 Azure 机器学习工作室中将超参数优化运行可视化,也可以使用笔记本小组件。
工作室
可以在 Azure 机器学习工作室中将所有超参数优化运行可视化。 要详细了解如何在门户中查看试验,请参阅在工作室中查看运行记录。
指标图:此可视化效果跟踪在超参数优化持续时间内为每个 hyperdrive 子运行记录的指标。 每行表示一个子运行,每个点测量运行时迭代的主要指标值。
并行坐标图:此可视化效果显示主要指标性能与单个超参数值之间的关联。 该图表通过轴的移动(通过轴标签选择并拖动)和突出显示单个轴上的值(沿单个轴垂直选择并拖动以突出显示所需值的范围)进行交互。 并行坐标图表包括图表最右侧的一个轴,该轴绘制与为该运行实例设置的超参数相对应的最佳指标值。 提供此轴是为了以更可读的方式将图表渐变图例投影到数据上。
二维散点图:此可视化效果显示任意两个单独的超参数之间的关联以及它们对应的主要指标值。
三维散点图:此可视化效果与二维散点图相同,但可以显示三个超参数维度的关联和主要指标值。 也可以选择并拖动来重新定位图表,以查看三维空间中的不同相关性。
Notebook 小组件
使用 Notebook 小组件来可视化你的训练运行的进度。 以下代码片段可在 Jupyter 笔记本中的一个位置可视化所有的超参数优化运行:
from azureml.widgets import RunDetails
RunDetails(hyperdrive_run).show()
此代码会显示一个表格,其中详细描述了每个超参数配置的训练运行。
还可以将每个运行的性能可视化为训练进度。
找到最佳模型
完成所有超参数优化运行后,确定性能最佳的配置和超参数值:
best_run = hyperdrive_run.get_best_run_by_primary_metric()
best_run_metrics = best_run.get_metrics()
parameter_values = best_run.get_details()['runDefinition']['arguments']
print('Best Run Id: ', best_run.id)
print('\n Accuracy:', best_run_metrics['accuracy'])
print('\n learning rate:',parameter_values[3])
print('\n keep probability:',parameter_values[5])
print('\n batch size:',parameter_values[7])
示例 Notebook
请参阅以下文件夹中 train-hyperparameter-* 笔记本:
阅读使用 Jupyter 笔记本探索此服务一文,了解如何运行笔记本。