数据集成概述

数据引入是用于从一个或多个源将数据加载到 Azure 数据资源管理器中的进程。 引入后,数据即可供查询。 Azure 数据资源管理器为数据引入提供了多个连接器。

使用以下筛选器查看可用于用例的其他连接器、工具和集成。

下表汇总了可用的数据连接器、工具和集成。

名称 功能 是否支持流式处理? 是否支持免费群集? 类型 用例
Apache Kafka 引流 ✔️ 第一方,开源 日志、遥测、时序
Apache Flink 引流 ✔️ 开放源代码 遥测
Apache Log4J 2 引流 ✔️ ✔️ 第一方,开源 日志
Apache Spark 导出

引流
开放源代码 遥测
Apache Spark for Azure Synapse Analytics 导出

引流
第一方 遥测
Azure Cosmos DB 引流 ✔️ 第一方 更改源
Azure 数据工厂 导出

引流
第一方 数据业务流程
Azure 事件网格 引流 ✔️ 第一方 事件处理
Azure 事件中心 引流 ✔️ 第一方 消息传递
Azure Functions 导出

引流
第一方 工作流集成
Azure IoT 中心 引流 ✔️ 第一方 IoT 数据
Azure 流分析 引流 ✔️ 第一方 事件处理
Cribl Stream 引流 :heavy_check_mark: 第一方 遥测、日志、指标、计算机数据处理
Fluent Bit 引流 开放源代码 日志、指标、跟踪
Logstash 引流 开放源代码 日志
NLog 引流 ✔️ ✔️ 第一方,开源 遥测、日志、指标
Open Telemetry 引流 ✔️ 开放源代码 跟踪、指标、日志
Power Automate 导出

引流
第一方 数据业务流程
Serilog 引流 ✔️ ✔️ 第一方,开源 日志
Splunk 引流 开放源代码 日志
Splunk 通用转发器 引流 开放源代码 日志
Telegraf 引流 ✔️ 开放源代码 指标、日志

有关连接器和工具的详细信息,请参阅集成概述