Lire les données d'exemple depuis S3 - 7.3

Databricks

Version
7.3
Language
Français (France)
Product
Talend Big Data
Talend Big Data Platform
Talend Data Fabric
Talend Open Studio for Big Data
Talend Real-Time Big Data Platform
Module
Studio Talend
Content
Création et développement > Création de Jobs > Distributions Hadoop > Databricks
Création et développement > Création de Jobs > Serverless > Databricks

Procédure

  1. Double-cliquez sur le tFileInputParquet pour ouvrir sa vue Component.

    Exemple

  2. Cochez la case Define a storage configuration component et sélectionnez le composant tAzureFSConfiguration configuré au cours des étapes précédentes.
  3. Cliquez sur le bouton [...] à côté du champ Edit schema pour ouvrir l'éditeur du schéma.
  4. Cliquez sur le bouton [+] afin d'ajouter les colonnes du schéma, pour la sortie, comme dans l'image ci-dessous.

    Exemple

  5. Cliquez sur OK pour valider ces modifications et acceptez la propagation proposée par la boîte de dialogue qui s'ouvre.
  6. Dans le champ Folder/File, saisissez le nom du dossier duquel lire les données. Dans ce scénario, ce dossier est sample_user.
  7. Double-cliquez sur le tLogRow pour ouvrir sa vue Component et sélectionnez le bouton radio Table, pour afficher les résultats sous forme de table.
  8. Appuyez sur F6 pour exécuter ce Job.

Résultats

Cela fait, vous pouvez voir votre Job dans la page Job de l'interface Web de votre cluster Databricks et consulter le log d'exécution de votre Job.