Charger les données depuis le fichier local - Cloud - 8.0

HDFS

Version
Cloud
8.0
Language
Français
Product
Talend Big Data
Talend Big Data Platform
Talend Data Fabric
Talend Open Studio for Big Data
Talend Real-Time Big Data Platform
Module
Studio Talend
Content
Création et développement > Systèmes tiers > Composants File (Intégration) > Composants HDFS
Gouvernance de données > Systèmes tiers > Composants File (Intégration) > Composants HDFS
Qualité et préparation de données > Systèmes tiers > Composants File (Intégration) > Composants HDFS
Last publication date
2023-09-14

Procédure

  1. Double-cliquez sur le tHDFSPut pour configurer le composant dans la vue Basic settings.
  2. Sélectionnez Apache 0.20.2 dans la liste Hadoop version.
  3. Dans les champs NameNode URI, Username, Group, saisissez les paramètres de connexion à HDFS. Si vous utilisez WebHDFS, l'emplacement doit être webhdfs://masternode:portnumber ; WebHDFS avec SSL n'est pas supporté.
  4. Près du champ Local directory, cliquez sur le bouton [...] pour parcourir votre système jusqu'au dossier où se situe le fichier à charger dans HDFS. Dans ce scénario, le dossier a été spécifié pendant la configuration du composant tFileOutputDelimited : C:/hadoopfiles/putFile/.
  5. Dans le champ HDFS directory, saisissez l'emplacement défini dans HDFS pour enregistrer le fichier à charger. Dans cet exemple, il s'agit de /testFile.
  6. Cliquez sur le champ Overwrite file pour développer le menu déroulant.
  7. Dans le menu, sélectionnez always (toujours).
  8. Dans la zone Files, cliquez sur le bouton [+] pour ajouter une ligne dans laquelle vous définissez le fichier à charger.
  9. Dans la colonne File mask, saisissez *.txt entre guillemets pour remplacer newLine, et laissez la colonne New name telle quelle. Ceci vous permet d'extraire tous les fichiers .txt dans le dossier spécifié sans modifier leur nom. Dans cet exemple, le fichier est in.txt.