Utiliser les composants HDFS pour travailler avec Azure Data Lake Store (ADLS) - Cloud - 8.0

HDFS

Version
Cloud
8.0
Language
Français
Product
Talend Big Data
Talend Big Data Platform
Talend Data Fabric
Talend Real-Time Big Data Platform
Module
Studio Talend
Content
Création et développement > Systèmes tiers > Composants File (Intégration) > Composants HDFS
Gouvernance de données > Systèmes tiers > Composants File (Intégration) > Composants HDFS
Qualité et préparation de données > Systèmes tiers > Composants File (Intégration) > Composants HDFS
Last publication date
2024-02-21

Ce scénario décrit comment utiliser les composants HDFS pour lire des données de et écrire des données dans Azure Data Lake Storage.

Pour plus de technologies supportées par Talend, consultez Composants Talend.

Ce scénario s'applique uniquement aux produits Talend avec Big Data.

  • un tFixedFlowInput : fournit les données d'exemple dans le Job,

  • un tHDFSOutput : écrit les données d'exemple dans Azure Data Lake Store,

  • un tHDFSInput : écrit les données d'exemple depuis Azure Data Lake Store,

  • un tLogRow : affiche la sortie du Job dans la console de la vue Run du Job.