Écrire et lire des données depuis Azure Data Lake Storage à l'aide de Spark (Azure Databricks) - 7.1

Databricks

EnrichVersion
7.1
EnrichProdName
Talend Big Data
Talend Big Data Platform
Talend Data Fabric
Talend Real-Time Big Data Platform
EnrichPlatform
Studio Talend
task
Création et développement > Création de Jobs > Distributions Hadoop > Databricks
Création et développement > Création de Jobs > Serverless > Databricks

Dans ce scénario, vous allez créer un Job Spark Batch utilisant un tAzureFSConfiguration et les composants Parquet pour écrire des données dans Azure Data Lake Store et les lire depuis Azure.

Ce scénario s'applique uniquement aux solutions Talend avec Big Data nécessitant une souscription.

Pour plus d'informations concernant les technologies supportées par Talend, consultez Composants Talend.

L'échantillon de données utilisé est le suivant :
01;ychen

Ces données contiennent un identifiant utilisateur et un ID distribué à cet utilisateur.

Notez que les données d'exemple sont créées à des fins de démonstration uniquement.