Écrire et lire des données depuis S3 (Databricks sur AWS) - Cloud - 8.0

Databricks

Version
Cloud
8.0
Language
Français
Product
Talend Big Data
Talend Big Data Platform
Talend Data Fabric
Talend Real-Time Big Data Platform
Module
Studio Talend
Content
Création et développement > Création de Jobs > Distributions Hadoop > Databricks
Création et développement > Création de Jobs > Serverless > Databricks
Last publication date
2024-02-21

Dans ce scénario, vous allez créer un Job Spark Batch utilisant un tS3Configuration et les composants Parquet pour écrire des données dans S3 et les lire depuis S3.

Ce scénario s'applique uniquement aux produits Talend avec Big Data nécessitant souscription.

Pour plus de technologies supportées par Talend, consultez Composants Talend.

L'échantillon de données utilisé est le suivant :
01;ychen

Ces données contiennent un identifiant utilisateur·rice et un ID distribué à cet·te utilisateur·rice.

Notez que les données d'exemple sont créées à des fins de démonstration uniquement.