Accéder au contenu principal Passer au contenu complémentaire

Lire les données d'exemple depuis S3

Procédure

  1. Double-cliquez sur le tFileInputParquet pour ouvrir sa vue Component.

    Exemple

  2. Cochez la case Define a storage configuration component et sélectionnez le composant tAzureFSConfiguration configuré au cours des étapes précédentes.
  3. Cliquez sur le bouton [...] à côté du champ Edit schema pour ouvrir l'éditeur du schéma.
  4. Cliquez sur le bouton [+] afin d'ajouter les colonnes du schéma, pour la sortie, comme dans l'image ci-dessous.

    Exemple

  5. Cliquez sur OK pour valider ces modifications et acceptez la propagation proposée par la boîte de dialogue qui s'ouvre.
  6. Dans le champ Folder/File, saisissez le nom du dossier duquel lire les données. Dans ce scénario, ce dossier est sample_user.
  7. Double-cliquez sur le tLogRow pour ouvrir sa vue Component et sélectionnez le bouton radio Table, pour afficher les résultats sous forme de table.
  8. Appuyez sur F6 pour exécuter ce Job.

Résultats

Cela fait, vous pouvez voir votre Job dans la page Job de l'interface Web de votre cluster Databricks et consulter le log d'exécution de votre Job.

Cette page vous a-t-elle aidé ?

Si vous rencontrez des problèmes sur cette page ou dans son contenu – une faute de frappe, une étape manquante ou une erreur technique – dites-nous comment nous améliorer !