创建 Azure 机器学习数据集
本文介绍如何使用 Azure 机器学习 Python SDK 创建 Azure 机器学习数据集,以访问本地或远程试验的数据。 有关数据集如何适应 Azure 机器学习的整体数据访问工作流的详细信息,请访问“安全访问数据”一文。
当创建数据集时,可以创建对数据源位置的引用及其元数据的副本。 由于数据保留在其现有位置中,因此不会产生额外的存储成本,也不会损害数据源的完整性。 此外,还会对数据集进行延迟计算,这有助于提高工作流执行速度。 可以从数据存储和公共 URL 创建数据集。
使用 Azure 机器学习数据集可以:
在存储中保留数据的单个副本,供数据集引用
在模型训练期间无缝访问数据,而无需考虑连接字符串或数据路径。 有关数据集训练的详细信息,请访问详细了解如何使用数据集进行训练
与其他用户共享数据和展开协作
重要
本文中标记为“预览”的项目前为公共预览版。 该预览版在提供时没有附带服务级别协议,建议不要将其用于生产工作负载。 某些功能可能不受支持或者受限。 有关详细信息,请参阅适用于 Azure 预览版的补充使用条款。
先决条件
若要创建和使用数据集,需要做好以下准备:
Azure 订阅。 如果没有 Azure 订阅,请在开始之前创建一个试用版订阅。 尝试试用版订阅。
已安装适用于 Python 的 Azure 机器学习 SDK,其中包含 azureml-datasets 包
创建一个 Azure 机器学习计算实例,它是一个完全配置且托管的开发环境,其中包括集成的笔记本和已安装的 SDK
或
在自己的 Jupyter 笔记本上工作,并自行安装 SDK
注意
某些数据集类依赖于 azureml-dataprep 包,此包仅兼容64位 Python。 如果在 linux 上进行开发,这些类依赖于 .NET Core 2.1,并且仅特定分发版支持它们。 有关支持的发行版的详细信息,请参阅在 Linux 上安装 .NET 一文中的“.NET Core 2.1”列。
重要
虽然该包可以在较旧的 Linux 发行版上正常工作,但我们不建议使用不在主要支持范围内的发行版。 不在主要支持范围内的的发行版可能存在安全漏洞,因为它们不会收到最新更新。 建议使用兼容的受支持的最新版本的发行版。
计算大小指南
创建数据集时,请检查计算处理能力和内存中的数据大小。 存储中的数据大小不同于数据帧中的数据大小。 例如,CSV 文件中的数据在数据帧中最多可以扩展到 10 倍,因此,1 GB 的 CSV 文件在数据帧中可能会变成 10 GB。
压缩的数据可以进一步扩展。 以压缩 parquet 格式存储的 20 GB 相对稀疏的数据可以在内存中扩展到大约 800 GB。 由于 Parquet 文件以纵栏格式存储数据,因此,如果只需要一半的列,则只需在内存中加载大约 400 GB。
有关详细信息,请访问详细了解如何优化 Azure 机器学习中的数据处理。
数据集类型
存在两种数据集类型:FileDataset 和 TabularDataset,具体取决于用户在训练中使用数据集的方式。 涉及估算器、AutoML、hyperDrive 和管道的 Azure 机器学习训练工作流可以使用这两种类型。
FileDataset
FileDataset 引用数据存储或公共 URL 中的单个或多个文件。 如果数据已经清理,并且可以在训练试验中使用,则可将文件作为 FileDataset 对象下载或装载到计算中。
建议将 FileDataset 用于机器学习工作流,因为源文件可以采用任何格式。 这可实现更广泛的机器学习方案,包括深度学习。
使用 Python SDK 或 Azure 机器学习工作室创建 FileDataset。
TabularDataset
TabularDataset 分析提供的文件或文件列表,以表格格式表示数据。 然后,可以将数据具体化为 pandas 或 Spark 数据帧,以便在笔记本中处理熟悉的数据准备并训练库。 可以从 .csv、.tsv、.parquet、.jsonl 行文件和 SQL 查询结果创建 TabularDataset
对象。
使用 TabularDataset 时,可以从数据中的列或者从路径模式数据所存储到的任何位置指定一个时间戳,以启用时序特征。 此规范允许按时间轻松有效地进行筛选。 有关示例,请访问使用 NOAA 天气数据的表格时序相关 API 演示。
使用 Python SDK 或 Azure 机器学习工作室创建 TabularDataset。
注意
通过 Azure 机器学习工作室生成的自动化 ML 工作流目前仅支持 TabularDataset。
此外,对于从 SQL 查询结果生成的 TabularDataset,T-SQL(例如“WITH”子查询)或重复的列名不受支持。 复杂的 T-SQL 查询可能会导致性能问题。 数据集中的重复列名可能会导致歧义问题。
访问虚拟网络中的数据集
如果工作区位于虚拟网络中,则必须将数据集配置为跳过验证。 有关如何在虚拟网络中使用数据存储和数据集的详细信息,请访问保护工作区和相关资源。
从数据存储创建数据集
若要使 Azure 机器学习可以访问数据,必须从 Web URL 或 Azure 机器学习数据存储中的路径创建数据集。
提示
可以通过基于标识的数据访问直接从存储 URL 创建数据集。 有关详细信息,请访问“使用基于标识的数据访问连接到存储”。
若要使用 Python SDK 从数据存储创建数据集,请执行以下操作:
确认你是否具有对注册的 Azure 机器学习数据存储的基础存储服务的
contributor
或owner
访问权限。 在 Azure 门户中检查存储帐户权限。通过引用数据存储中的路径创建数据集。 可以从多个数据存储中的多个路径创建数据集。 创建数据集的文件或数据大小数量没有硬性限制。
注意
对于每个数据路径,会将几个请求发送到存储服务,以检查它是否指向文件或文件夹。 此开销可能会导致性能下降或故障。 数据集引用内含 1000 个文件的文件夹的行为被视为引用一个数据路径。 为了获得最佳性能,建议创建在数据存储中引用不到 100 个路径的数据集。
创建 FileDataset
使用 FileDatasetFactory
类中的 from_files()
方法可以加载任意格式的文件并创建未注册的 FileDataset。
如果存储位于虚拟网络或防火墙后面,请在 from_files()
方法中设置参数 validate=False
。 这会绕过初始验证步骤,确保可以从这些安全文件创建数据集。 有关详细信息,请访问使用虚拟网络中的数据存储和数据集。
from azureml.core import Workspace, Datastore, Dataset
# create a FileDataset recursively pointing to files in 'animals' folder and its subfolder
datastore_paths = [(datastore, 'animals')]
animal_ds = Dataset.File.from_files(path=datastore_paths)
# create a FileDataset from image and label files behind public web urls
web_paths = ['https://azureopendatastorage.blob.core.chinacloudapi.cn/mnist/train-images-idx3-ubyte.gz',
'https://azureopendatastorage.blob.core.chinacloudapi.cn/mnist/train-labels-idx1-ubyte.gz']
mnist_ds = Dataset.File.from_files(path=web_paths)
如果要从本地目录上传所有文件,请使用 upload_directory()
在单个方法中创建 FileDataset。 此方法会将数据上传到基础存储,因此会产生存储费用。
from azureml.core import Workspace, Datastore, Dataset
from azureml.data.datapath import DataPath
ws = Workspace.from_config()
datastore = Datastore.get(ws, '<name of your datastore>')
ds = Dataset.File.upload_directory(src_dir='<path to you data>',
target=DataPath(datastore, '<path on the datastore>'),
show_progress=True)
若要在工作区的不同试验中重用和共享数据集,请注册数据集。
创建 TabularDataset
使用 TabularDatasetFactory
类中的 from_delimited_files()
方法可以读取 .csv 或 .tsv 格式的文件,并创建未注册的 TabularDataset。 若要读取 .parquet
格式的文件,请使用 from_parquet_files()
方法。 如果从多个文件进行读取,结果将聚合为一种表格表示形式。
有关支持的文件格式以及语法和设计模式(例如多行支持)的信息,请参阅 TabularDatasetFactory 参考文档。
如果存储位于虚拟网络或防火墙后面,请在 from_delimited_files()
方法中设置参数 validate=False
。 这会绕过初始验证步骤,确保可以从这些安全文件创建数据集。 有关虚拟网络或防火墙后面的数据存储资源的详细信息,请访问虚拟网络中的数据存储和数据集。
此代码按名称获取现有工作区和所需的数据存储。 然后它会将数据存储和文件位置传递给 path
参数以创建新的名为 weather_ds
的 TabularDataset:
from azureml.core import Workspace, Datastore, Dataset
datastore_name = 'your datastore name'
# get existing workspace
workspace = Workspace.from_config()
# retrieve an existing datastore in the workspace by name
datastore = Datastore.get(workspace, datastore_name)
# create a TabularDataset from 3 file paths in datastore
datastore_paths = [(datastore, 'weather/2018/11.csv'),
(datastore, 'weather/2018/12.csv'),
(datastore, 'weather/2019/*.csv')]
weather_ds = Dataset.Tabular.from_delimited_files(path=datastore_paths)
设置数据架构
默认情况下,在创建 TabularDataset 时,将自动推断列数据类型。 如果推理类型不满足你的要求,可以通过使用以下代码指定列类型来更新数据集。 参数 infer_column_type
仅适用于从分隔文件创建的数据集。 有关详细信息,请访问详细了解支持的数据类型。
from azureml.core import Dataset
from azureml.data.dataset_factory import DataType
# create a TabularDataset from a delimited file behind a public web url and convert column "Survived" to boolean
web_path ='https://dprepdata.blob.core.chinacloudapi.cn/demo/Titanic.csv'
titanic_ds = Dataset.Tabular.from_delimited_files(path=web_path, set_column_types={'Survived': DataType.to_bool()})
# preview the first 3 rows of titanic_ds
titanic_ds.take(3).to_pandas_dataframe()
(索引) | PassengerId | Survived | Pclass | 名称 | Sex | Age | SibSp | Parch | Ticket | Fare | Cabin | Embarked |
---|---|---|---|---|---|---|---|---|---|---|---|---|
0 | 1 | False | 3 | Braund, Mr. Owen Harris | 男 | 22.0 | 1 | 0 | A/5 21171 | 7.2500 | S | |
1 | 2 | True | 1 | Cumings, Mrs. John Bradley (Florence Briggs Th... | 女 | 38.0 | 1 | 0 | PC 17599 | 71.2833 | C85 | C |
2 | 3 | True | 3 | Heikkinen, Miss. Laina | 女 | 26.0 | 0 | 0 | STON/O2. 3101282 | 7.9250 | S |
若要在工作区的不同试验中重用和共享数据集,请注册数据集。
处理数据
创建并注册数据集之后,可以在模型训练之前将数据库加载到笔记本中以进行数据处理和浏览。 你可能不需要执行任何数据整理或探索。 在这种情况下,有关如何在机器学习试验提交的训练脚本中使用数据集的详细信息,请访问使用数据集进行训练。
筛选数据集(预览版)
筛选功能取决于你拥有的数据集的类型。
对于 TabularDatasets,可以使用 keep_columns() 和 drop_columns() 方法保留或删除列。
若要按 TabularDataset 中的特定列值筛选行,请使用 filter() 方法(预览版)。
以下示例基于指定的表达式返回未注册的数据集:
# TabularDataset that only contains records where the age column value is greater than 15
tabular_dataset = tabular_dataset.filter(tabular_dataset['age'] > 15)
# TabularDataset that contains records where the name column value contains 'Bri' and the age column value is greater than 15
tabular_dataset = tabular_dataset.filter((tabular_dataset['name'].contains('Bri')) & (tabular_dataset['age'] > 15))
在 FileDatasets 中,每一行均对应一个文件路径,因此按列值筛选不起作用。 但是,可以按元数据(例如 CreationTime、Size 等)filter() 行。以下示例基于指定的表达式返回未注册的数据集:
# FileDataset that only contains files where Size is less than 100000
file_dataset = file_dataset.filter(file_dataset.file_metadata['Size'] < 100000)
# FileDataset that only contains files that were either created prior to Jan 1, 2020 or where
file_dataset = file_dataset.filter((file_dataset.file_metadata['CreatedTime'] < datetime(2020,1,1)) | (file_dataset.file_metadata['CanSeek'] == False))
从图像标记项目创建的标记数据集是一种特殊情况。 这些数据集是由图像文件组成的 TabularDataset 的类型。 对于这些数据集,可以按元数据和列值 label
和 image_details
对图像进行 filter()。
# Dataset that only contains records where the label column value is dog
labeled_dataset = labeled_dataset.filter(labeled_dataset['label'] == 'dog')
# Dataset that only contains records where the label and isCrowd columns are True and where the file size is larger than 100000
labeled_dataset = labeled_dataset.filter((labeled_dataset['label']['isCrowd'] == True) & (labeled_dataset.file_metadata['Size'] > 100000))
将数据分区
若要对数据集进行分区,请在创建 TabularDataset 或 FileDataset 时包括 partitions_format
参数。
对数据集进行分区时,每个文件路径的分区信息都将根据指定的格式提取到列中。 格式应从第一个分区键位置开始直到文件路径末尾。
例如,给定路径 ../Accounts/2019/01/01/data.jsonl
,其中分区是按部门名称和时间划分的;partition_format='/{Department}/{PartitionDate:yyyy/MM/dd}/data.jsonl'
创建值为“Accounts”的字符串列“Department”和值为 2019-01-01
的日期/时间列“PartitionDate”。
如果数据已有现有分区,并希望保留该格式,请在 from_files()
方法中包含 partitioned_format
参数以创建 FileDataset。
若要创建保留现有分区的 TabularDataset,请在 from_parquet_files()
或 from_delimited_files()
方法中包含 partitioned_format
参数。
以下示例:
- 从分区文件创建 FileDataset
- 获取分区键
- 创建新的已编制索引的 FileDataset
file_dataset = Dataset.File.from_files(data_paths, partition_format = '{userid}/*.wav')
ds.register(name='speech_dataset')
# access partition_keys
indexes = file_dataset.partition_keys # ['userid']
# get all partition key value pairs should return [{'userid': 'user1'}, {'userid': 'user2'}]
partitions = file_dataset.get_partition_key_values()
partitions = file_dataset.get_partition_key_values(['userid'])
# return [{'userid': 'user1'}, {'userid': 'user2'}]
# filter API, this will only download data from user1/ folder
new_file_dataset = file_dataset.filter(ds['userid'] == 'user1').download()
还可以使用 partition_by() 方法为 TabularDatasets 创建新的分区结构。
dataset = Dataset.get_by_name('test') # indexed by country, state, partition_date
# call partition_by locally
new_dataset = ds.partition_by(name="repartitioned_ds", partition_keys=['country'], target=DataPath(datastore, "repartition"))
partition_keys = new_dataset.partition_keys # ['country']
浏览数据
处理完数据后,可以注册数据集,然后在模型训练之前将其加载到笔记本中以进行数据浏览。
对于 FileDataset,可以装载或下载数据集,并应用通常用于数据浏览的 Python 库。 有关详细信息,请访问了解有关装载与下载的详细信息。
# download the dataset
dataset.download(target_path='.', overwrite=False)
# mount dataset to the temp directory at `mounted_path`
import tempfile
mounted_path = tempfile.mkdtemp()
mount_context = dataset.mount(mounted_path)
mount_context.start()
对于 TabularDataset,请使用 to_pandas_dataframe()
方法来查看数据帧中的数据。
# preview the first 3 rows of titanic_ds
titanic_ds.take(3).to_pandas_dataframe()
(索引) | PassengerId | Survived | Pclass | 名称 | Sex | Age | SibSp | Parch | Ticket | Fare | Cabin | Embarked |
---|---|---|---|---|---|---|---|---|---|---|---|---|
0 | 1 | False | 3 | Braund, Mr. Owen Harris | 男 | 22.0 | 1 | 0 | A/5 21171 | 7.2500 | S | |
1 | 2 | True | 1 | Cumings, Mrs. John Bradley (Florence Briggs Th... | 女 | 38.0 | 1 | 0 | PC 17599 | 71.2833 | C85 | C |
2 | 3 | True | 3 | Heikkinen, Miss. Laina | 女 | 26.0 | 0 | 0 | STON/O2. 3101282 | 7.9250 | S |
从 pandas 数据帧创建数据集
要从内存中的 Pandas 数据帧创建 TabularDataset,请使用 register_pandas_dataframe()
方法。 此方法将 TabularDataset 注册到工作区并将数据上传到你的底层存储。 此过程会产生存储成本。
from azureml.core import Workspace, Datastore, Dataset
import pandas as pd
pandas_df = pd.read_csv('<path to your csv file>')
ws = Workspace.from_config()
datastore = Datastore.get(ws, '<name of your datastore>')
dataset = Dataset.Tabular.register_pandas_dataframe(pandas_df, datastore, "dataset_from_pandas_df", show_progress=True)
提示
使用公共预览方法 register_spark_dataframe()
和 register_dask_dataframe()
从内存中的 spark 数据帧或 dask 数据帧创建和注册 TabularDataset。 这些方法属于试验性预览功能,可能随时更改。
这些方法会将数据上传到基础存储,因此会产生存储费用。
注册数据集
若要完成创建过程,请将数据集注册到工作区。 使用 register()
方法将数据集注册到工作区,以与其他人共享,并在工作区中的实验中重复使用这些数据集:
titanic_ds = titanic_ds.register(workspace=workspace,
name='titanic_ds',
description='titanic training data')
使用 Azure 资源管理器创建数据集
可以在 microsoft.machinelearningservices 中找到许多模板,这些模板可用于创建数据集。
有关这些模板的信息,请访问使用 Azure 资源管理器模板创建 Azure 机器学习的工作区。
使用数据集进行训练
在机器学习试验中使用数据集来训练 ML 模型。 详细了解如何使用数据集进行训练。
对数据集进行版本控制
可以通过创建新版本,以相同的名称注册新数据集。 数据集版本可以为数据状态设置书签,以应用数据集的特定版本进行试验或者在将来重现该数据集。 有关详细信息,请访问数据集版本。
# create a TabularDataset from Titanic training data
web_paths = ['https://dprepdata.blob.core.chinacloudapi.cn/demo/Titanic.csv',
'https://dprepdata.blob.core.chinacloudapi.cn/demo/Titanic2.csv']
titanic_ds = Dataset.Tabular.from_delimited_files(path=web_paths)
# create a new version of titanic_ds
titanic_ds = titanic_ds.register(workspace = workspace,
name = 'titanic_ds',
description = 'new titanic training data',
create_new_version = True)
后续步骤
- 了解如何使用数据集进行训练
- 通过自动化机器学习使用 TabularDataset 进行训练
- 有关更多数据集定型示例,请参阅示例笔记本