Écrire et lire des données depuis S3 (Databricks sur AWS) - 7.1

Amazon S3

author
Talend Documentation Team
EnrichVersion
7.1
EnrichProdName
Talend Big Data
Talend Big Data Platform
Talend Data Fabric
Talend Data Integration
Talend Data Management Platform
Talend Data Services Platform
Talend ESB
Talend MDM Platform
Talend Open Studio for Big Data
Talend Open Studio for Data Integration
Talend Open Studio for ESB
Talend Open Studio for MDM
Talend Real-Time Big Data Platform
task
Création et développement > Systèmes tiers > Services Amazon (Intégration) > Composants Amazon S3
Gouvernance de données > Systèmes tiers > Services Amazon (Intégration) > Composants Amazon S3
Qualité et préparation de données > Systèmes tiers > Services Amazon (Intégration) > Composants Amazon S3
EnrichPlatform
Studio Talend

Dans ce scénario, vous allez créer un Job Spark Batch utilisant un tS3Configuration et les composants Parquet pour écrire des données dans S3 et les lire depuis S3.

Ce scénario s'applique uniquement aux solutions Talend avec Big Data nécessitant une souscription.

Pour plus d'informations concernant les technologies supportées par Talend, consultez Composants Talend.

L'échantillon de données utilisé est le suivant :
01;ychen

Ces données contiennent un identifiant utilisateur et un ID distribué à cet utilisateur.

Notez que les données d'exemple sont créées à des fins de démonstration uniquement.