下载湖屋参考体系结构

本文从数据源、引入、转换、查询和处理、服务提供、分析/输出和存储等方面提供了针对湖屋的体系结构指导。

每个参考体系结构都有一个 11 x 17 (A3) 格式的可下载 PDF。

通用参考体系结构

湖屋的通用参考体系结构

下载:适用于 Databricks 的通用湖屋参考体系结构 (PDF)

参考体系结构的组织

参考体系结构是沿以下“泳道”构造的:数据源、引入、转换、查询和处理、服务提供、分析,以及存储

  • Source

    该体系结构区分了半结构化和非结构化数据(传感器和物联网、媒体、文件/日志)以及结构化数据(RDBMS、业务应用程序)。 SQL 源 (RDBMS) 还可以通过湖屋联合集成到湖屋和 Unity Catalog 中,无需进行 ETL。 此外,还可能会从其他云提供商加载数据。

  • 引入

    可以通过批处理或流式处理将数据引入到湖屋中:

    • 可以使用 Databricks 自动加载程序直接加载传送到云存储的文件。

    • 为了将数据从企业应用中批量导入 Delta LakeDatabricks lakehouse 依赖于合作伙伴引入工具,这些工具为这些记录系统提供了特定的适配器。

    • 可以使用 Databricks 结构化流式处理直接从事件流式处理系统(例如 Kafka)引入流式处理事件。 流式处理源可以是传感器、物联网或变更数据捕获流程。

  • 存储

    数据通常存储在云存储系统中,其中的 ETL 管道使用奖章体系结构以精心策划的方式将数据存储为 Delta 文件/表

  • 转换与查询和处理

    Databricks 湖屋使用其引擎 Apache SparkPhoton 执行所有转换和查询。

    由于其简单性,声明性框架 DLT (Delta Live Tables) 是用于构建可靠、可维护和可测试的数据处理管道的良好选择。

    Databricks Data Intelligence Platform 由 Apache Spark 和 Photon 提供支持,支持两种类型的工作负载:通过 SQL 仓库的 SQL 查询,以及通过工作区群集的 SQL、Python 和 Scala 工作负载。

    对于数据科学(ML 建模和生成式 AI),Databricks AI 和机器学习平台 提供了专门用于 AutoML 和为 ML 作业编写代码的 ML 运行时。 所有数据科学和 MLOps 工作流都得到 MLflow 的最佳支持。

  • 服务提供

    对于 DWH 和 BI 用例,Databricks lakehouse 提供 Databricks SQL,这是由 SQL 仓库提供支持的数据仓库。

    对于机器学习,模型服务是一种可缩放的实时企业级模型服务功能,托管在 Databricks 控制平面中。

    操作数据库:外部系统(例如操作数据库)可用于存储最终数据产品并将其交付给用户应用程序。

    协作:业务合作伙伴通过 Delta Sharing 安全地访问所需的数据。

  • 分析

    Data Intelligence Platform 还提供了仪表板来构建数据可视化效果并共享见解。

针对工作负载的功能

此外,Databricks 湖屋还提供了支持所有工作负载的管理功能:

  • 数据和 AI 治理

    Databricks Data Intelligence Platform 中的中央数据和 AI 治理系统是 Unity Catalog。 Unity Catalog 提供了单一位置来管理适用于所有工作空间的数据访问策略,并支持在湖屋中创建或使用的所有资产,例如表、卷、功能(功能存储)和模型(模型注册表)。 Unity Catalog 还可以用来为 Databricks 上运行的查询捕获运行时数据世系

  • 业务流程

    Databricks 作业可协调 Databricks Data Intelligence 平台中的数据处理、机器学习和分析管道。 使用增量实时表,可以使用声明性语法生成可靠且可维护的 ETL 管道。

Azure 上的 Data Intelligence Platform 参考体系结构

Azure Databricks 参考体系结构派生自通用参考体系结构,在其基础上添加了针对数据源、引入、服务提供、分析/输出以及存储元素的 Azure 特定服务。

Azure Databricks 湖屋的参考体系结构

下载:适用于 Azure 上的 Databricks 湖屋的参考体系结构

Azure 参考体系结构显示了针对引入、存储、服务提供以及分析/输出的以下 Azure 特定服务:

  • Azure Synapse 和 SQL Server,用作 Lakehouse Federation 的源系统
  • Azure IoT 中心和 Azure 事件中心,用于流式处理引入
  • Azure 数据工厂,用于批量引入
  • Azure Data Lake Storage Gen 2 (ADLS),用作对象存储
  • Azure SQL DB 和 Azure Cosmos DB,用作操作数据库
  • Azure Purview,用作企业目录,UC 会将架构和世系信息导出到该目录中
  • Power BI,用作 BI 工具

注意

  • 参考体系结构的此视图仅侧重于 Azure 服务和 Databricks 湖屋。 Databricks 上的湖屋是一个开放平台,集成了一个大型的合作伙伴工具生态系统
  • 此处显示的云提供商服务不是详尽名单。 选择它们是为了解释此概念。

用例:批量 ETL

Azure Databricks 上批处理 ETL 的参考体系结构

下载:适用于 Azure Databricks 的批量 ETL 参考体系结构

引入工具使用特定于源的适配器从源读取数据,然后将其存储在云存储中(自动加载程序可以从中读取数据),或直接调用 Databricks(例如,通过集成到 Databricks 湖屋中的合作伙伴引入工具)。 为了加载数据,Databricks ETL 和处理引擎将通过 DLT 运行查询。 单任务或多任务工作流可以由 Databricks 作业编排,并由 Unity Catalog 进行治理(访问控制、审计、世系,等等)。 如果低延迟操作系统需要访问特定的黄金表,则可以在 ETL 管道的末尾将这些表导出到某个操作数据库,例如 RDBMS 或键-值存储。

用例:流式处理和变更数据捕获 (CDC)

Azure Databricks 上的 Spark 结构化流式处理体系结构

下载:适用于 Azure Databricks 的 Spark 结构化流式处理体系结构

Databricks ETL 引擎使用 Spark 结构化流式处理从事件队列(例如 Apache Kafka 或 Azure 事件中心)读取数据。 下游步骤遵循上面的“批量”用例的方法。

实时变更数据捕获 (CDC) 通常使用事件队列来存储提取的事件。 在那里,此用例遵循流式处理用例。

如果 CDC 是批量完成的,在这种情况下提取的记录首先存储在云存储中,然后 Databricks 自动加载程序可以读取它们,并且此用例遵循批量 ETL。

用例:机器学习和 AI

适用于 Azure Databricks 的机器学习和 AI 参考体系结构

下载:适用于 Azure Databricks 的机器学习和 AI 参考体系结构

对于机器学习,Databricks Data Intelligence Platform 提供了 Mosaic AI,后者配备了最先进的机器和深度学习库。 它提供下述功能:“特征存储”和模型注册表(两者都已集成到 Unity Catalog 中)、采用 AutoML 的低代码功能,以及集成到数据科学生命周期的 MLflow。

所有与数据科学相关的资产(表、特征和模型)都由 Unity Catalog 治理,数据科学家可以使用 Databricks 作业来协调其作业。

为了以可缩放的企业级方式部署模型,请使用 MLOps 功能在模型服务中发布模型。

用例:检索增强式生成(生成式 AI)

Azure Databricks 的 Gen AI RAG 参考体系结构

下载:适用于 Azure Databricks 的生成式 AI RAG 参考体系结构

对于生成式 AI 用例,Mosaic AI 配备了最先进的库和特定的生成式 AI 功能,包括提示工程、对现有模型的微调,以及从头开始预训练。 上面的体系结构显示的示例展示了如何集成矢量搜索来创建 RAG(检索增强式生成)AI 应用程序。

为了以可缩放的企业级方式部署模型,请使用 MLOps 功能在模型服务中发布模型。

用例:BI 和 SQL 分析

Azure Databricks 的 BI 和 SQL 分析参考体系结构

下载:适用于 Azure Databricks 的 BI 和 SQL 分析参考体系结构

对于 BI 用例,业务分析师可以使用仪表板、Databricks SQL 编辑器或特定的 BI 工具,例如 Tableau 或 Power BI。 在所有情况下,引擎都是 Databricks SQL(无服务器或非无服务器),数据发现、探索和访问控制由 Unity Catalog 提供。

用例:湖屋联合

Azure Databricks 的湖屋联合参考体系结构

下载:适用于 Azure Databricks 的湖屋联合参考体系结构

湖屋联合允许将外部数据 SQL 数据库(例如 MySQL、Postgres、SQL Server 或 Azure Synapse)与 Databricks 集成。

所有工作负载(AI、DWH 和 BI)都可以从中受益,因为不需要首先提取、转换数据并将其加载到对象存储中。 外部源目录映射到 Unity Catalog,可以对通过 Databricks 平台进行的访问应用细粒度访问控制。

用例:企业数据共享

Azure Databricks 的企业数据共享参考体系结构

下载:适用于 Azure Databricks 的企业数据共享参考体系结构

企业级数据共享由 Delta Sharing 提供。 它对由 Unity Catalog 保护的对象存储中的数据提供直接访问,Databricks 市场是一个用于交换数据产品的开放论坛。