Accéder au contenu principal

Utiliser les composants HDFS pour travailler avec Azure Data Lake Store (ADLS)

Ce scénario décrit comment utiliser les composants HDFS pour lire des données de et écrire des données dans Azure Data Lake Storage.

Pour plus de technologies supportées par Talend, consultez Composants Talend.

Ce scénario s'applique uniquement aux solutions Talend avec Big Data.

  • un tFixedFlowInput : fournit les données d'exemple dans le Job,

  • un tHDFSOutput : écrit les données d'exemple dans Azure Data Lake Store,

  • un tHDFSInput : écrit les données d'exemple depuis Azure Data Lake Store,

  • un tLogRow : affiche la sortie du Job dans la console de la vue Run du Job.

Cette page vous a-t-elle aidé ?

Si vous rencontrez des problèmes sur cette page ou dans son contenu – une faute de frappe, une étape manquante ou une erreur technique – dites-nous comment nous améliorer !