Lire les données d'exemple depuis Azure Data Lake Storage - 7.1

Azure Data Lake Store

Version
7.1
Language
Français (France)
Product
Talend Big Data
Talend Big Data Platform
Talend Data Fabric
Talend Real-Time Big Data Platform
Module
Studio Talend
Content
Création et développement > Systèmes tiers > Stockages Cloud > Composants Azure > Composants Azure Data Lake Store
Gouvernance de données > Systèmes tiers > Stockages Cloud > Composants Azure > Composants Azure Data Lake Store
Qualité et préparation de données > Systèmes tiers > Stockages Cloud > Composants Azure > Composants Azure Data Lake Store

Procédure

  1. Double-cliquez sur le tFileInputParquet pour ouvrir sa vue Component.

    Exemple

  2. Cochez la case Define a storage configuration component et sélectionnez le composant tAzureFSConfiguration configuré au cours des étapes précédentes.
  3. Cliquez sur le bouton [...] à côté du champ Edit schema pour ouvrir l'éditeur du schéma.
  4. Cliquez sur le bouton [+] afin d'ajouter les colonnes du schéma, pour la sortie, comme dans l'image ci-dessous.

    Exemple

  5. Cliquez sur OK pour valider ces modifications et acceptez la propagation proposée par la boîte de dialogue qui s'ouvre.
  6. Dans le champ Folder/File, saisissez le nom du dossier duquel lire les données. Dans ce scénario, ce dossier est sample_user.
  7. Double-cliquez sur le tLogRow pour ouvrir sa vue Component et sélectionnez le bouton radio Table , pour afficher les résultats sous forme de table.
  8. Appuyez sur F6 pour exécuter ce Job.

Résultats

Cela fait, vous pouvez voir votre Job dans la page Job de l'interface Web de votre cluster Databricks et consulter le log d'exécution de votre Job.