Accéder au contenu principal Passer au contenu complémentaire

Configurer votre Job

Pourquoi et quand exécuter cette tâche

  • Cette procédure est spécifique à ADLS Databricks Gen2.
  • Vous pouvez créer ce Job dans le nœud Big Data Batch ou Big Data Streaming.

Procédure

  1. Déposez les composants suivants de la Palette dans l'espace de modélisation graphique : un tJava et un tAzureFSConfiguration.
  2. Connectez-vous à votre compte Databricks.
  3. Dans l'onglet Configuration de la page de votre cluster Databricks, développez Advanced options.
  4. Dans l'onglet Spark, ajoutez les propriétés Spark suivantes :
    spark.hadoop.fs.azure.account.key.<storage_account>.dfs.core.windows.net <key>

    Cette clé est associée au compte de stockage à utiliser. Cette clé se trouve dans le panneau Access keys de ce compte de stockage. Deux clés sont disponibles pour chaque compte. Par défaut, n'importe laquelle peut être utilisée pour accéder au compte.

    Assurez-vous que le compte à utiliser contient les droits d'accès en lecture écriture appropriés.

Cette page vous a-t-elle aidé ?

Si vous rencontrez des problèmes sur cette page ou dans son contenu – une faute de frappe, une étape manquante ou une erreur technique – dites-nous comment nous améliorer !