教程:使用适用于 Visual Studio Code 的 Databricks 扩展在群集上以及作为作业运行 Python

本教程将指导你设置适用于 Visual Studio Code 的 Databricks 扩展,然后在 Azure Databricks 群集上以及在远程工作区中作为 Azure Databricks 作业运行 Python。 请参阅什么是 Visual Studio Code 的 Databricks 扩展?

要求

本教程要求:

  • 已安装适用于 Visual Studio Code 的 Databricks 扩展。 请参阅安装适用于 Visual Studio Code 的 Databricks 扩展
  • 有一个要使用的远程 Azure Databricks 群集。 记下群集名称。 若要查看可用的群集,请在 Azure Databricks 工作区边栏中单击“计算”。 请参阅计算

步骤 1:创建新的 Databricks 项目

在此步骤中,创建一个新的 Databricks 项目,并配置与远程 Azure Databricks 工作区的连接。

  1. 启动 Visual Studio Code,然后单击“文件”>“打开文件夹”,并在本地开发计算机上打开一些空文件夹。
  2. 在边栏上,单击“Databricks”徽标图标。 这将打开 Databricks 扩展。
  3. 在“配置”视图中,单击“迁移到 Databricks 项目”。
  4. 此时会打开用于配置 Databricks 工作区的“命令面板”。 对于“Databricks 主机”,输入或选择每工作区 URL,例如 https://adb-1234567890123456.7.databricks.azure.cn
  5. 为项目选择一个身份验证配置文件。 请参阅Visual Studio Code 的 Databricks 扩展的身份验证设置

步骤 2:将群集信息添加到 Databricks 扩展并启动群集

  1. 在已打开的“配置”视图中,单击“选择群集”或单击齿轮(“配置群集”)图标。

    配置群集

  2. 在“命令面板”中,选择之前创建的群集的名称。

  3. 如果尚未启动,请单击播放图标(“启动群集”)。

步骤 3:创建并运行 Python 代码

  1. 创建本地 Python 代码文件:在边栏上,单击文件夹(资源管理器)图标。

  2. 在主菜单中,单击“文件”>“新建文件”。 将文件命名为“demo.py”,并将其保存到项目根目录

  3. 将以下代码添加到文件,然后将其保存。 此代码将创建并显示基本 PySpark 数据帧的内容:

    from pyspark.sql import SparkSession
    from pyspark.sql.types import *
    
    spark = SparkSession.builder.getOrCreate()
    
    schema = StructType([
       StructField('CustomerID', IntegerType(), False),
       StructField('FirstName',  StringType(),  False),
       StructField('LastName',   StringType(),  False)
    ])
    
    data = [
       [ 1000, 'Mathijs', 'Oosterhout-Rijntjes' ],
       [ 1001, 'Joost',   'van Brunswijk' ],
       [ 1002, 'Stan',    'Bokenkamp' ]
    ]
    
    customers = spark.createDataFrame(data, schema)
    customers.show()
    
    # Output:
    #
    # +----------+---------+-------------------+
    # |CustomerID|FirstName|           LastName|
    # +----------+---------+-------------------+
    # |      1000|  Mathijs|Oosterhout-Rijntjes|
    # |      1001|    Joost|      van Brunswijk|
    # |      1002|     Stan|          Bokenkamp|
    # +----------+---------+-------------------+
    
  4. 单击编辑器选项卡列表旁边的“在 Databricks 上运行”图标,然后单击“上传并运行文件”。 输出将显示在“调试控制台”视图中。

    从图标上传并运行文件

    或者,在“资源管理器”视图中,右键单击 demo.py 文件,然后单击“在 Databricks 上运行”>“上传和运行文件”。

    从上下文菜单上传并运行文件

步骤 4:将代码作为作业运行

若要作为作业运行 demo.py,请单击编辑器选项卡列表旁边的“在 Databricks 上运行”图标,然后单击“将文件作为工作流运行”。 输出会显示在 demo.py 文件编辑器旁边单独的编辑器选项卡中。

从图标将文件作为工作流运行

或者,右键单击“资源管理器”面板中的 demo.py 文件,然后选择“在 Databricks 上运行”>“将文件作为工作流运行”。

从上下文菜单将文件作为工作流运行

后续步骤

现在,你已成功使用适用于 Visual Studio Code 的 Databricks 扩展上传本地 Python 文件并远程运行它,还可以: