Accéder au contenu principal Passer au contenu complémentaire

Charger les données depuis le fichier local

Procédure

  1. Double-cliquez sur le tHDFSPut pour configurer le composant dans la vue Basic settings.
  2. Sélectionnez Apache 0.20.2 dans la liste Hadoop version.
  3. Dans les champs NameNode URI, Username, Group, saisissez les paramètres de connexion à HDFS. Si vous utilisez WebHDFS, l'emplacement doit être webhdfs://masternode:portnumber ; WebHDFS avec SSL n'est pas supporté.
  4. Près du champ Local directory, cliquez sur le bouton [...] pour parcourir votre système jusqu'au dossier où se situe le fichier à charger dans HDFS. Dans ce scénario, le dossier a été spécifié pendant la configuration du composant tFileOutputDelimited : C:/hadoopfiles/putFile/.
  5. Dans le champ HDFS directory, saisissez l'emplacement défini dans HDFS pour enregistrer le fichier à charger. Dans cet exemple, il s'agit de /testFile.
  6. Cliquez sur le champ Overwrite file pour développer le menu déroulant.
  7. Dans le menu, sélectionnez always (toujours).
  8. Dans la zone Files, cliquez sur le bouton [+] pour ajouter une ligne dans laquelle vous définissez le fichier à charger.
  9. Dans la colonne File mask, saisissez *.txt entre guillemets pour remplacer newLine, et laissez la colonne New name telle quelle. Ceci vous permet d'extraire tous les fichiers .txt dans le dossier spécifié sans modifier leur nom. Dans cet exemple, le fichier est in.txt.

Cette page vous a-t-elle aidé ?

Si vous rencontrez des problèmes sur cette page ou dans son contenu – une faute de frappe, une étape manquante ou une erreur technique – dites-nous comment nous améliorer !