Écrire et lire des données depuis Azure Data Lake Storage à l'aide de Spark (Azure Databricks) - 7.3

Azure Data Lake Store

Version
7.3
Language
Français
Product
Talend Big Data
Talend Big Data Platform
Talend Data Fabric
Talend Data Integration
Talend Data Management Platform
Talend Data Services Platform
Talend ESB
Talend MDM Platform
Talend Real-Time Big Data Platform
Module
Studio Talend
Content
Création et développement > Systèmes tiers > Stockages Cloud > Composants Azure > Composants Azure Data Lake Storage Gen2
Gouvernance de données > Systèmes tiers > Stockages Cloud > Composants Azure > Composants Azure Data Lake Storage Gen2
Qualité et préparation de données > Systèmes tiers > Stockages Cloud > Composants Azure > Composants Azure Data Lake Storage Gen2
Last publication date
2023-06-14

Dans ce scénario, vous allez créer un Job Spark Batch utilisant un tAzureFSConfiguration et les composants Parquet pour écrire des données dans Azure Data Lake Store et les lire depuis Azure.

Ce scénario s'applique uniquement aux solutions Talend avec Big Data nécessitant une souscription.

Pour plus de technologies supportées par Talend, consultez Composants Talend.

L'échantillon de données utilisé est le suivant :
01;ychen

Ces données contiennent un identifiant utilisateur·rice et un ID distribué à cet·te utilisateur·rice.

Notez que les données d'exemple sont créées à des fins de démonstration uniquement.