Configurer la connexion au service S3 à utiliser dans Spark - 7.3

Amazon S3

Version
7.3
Language
Français
Product
Talend Big Data
Talend Big Data Platform
Talend Data Fabric
Talend Data Integration
Talend Data Management Platform
Talend Data Services Platform
Talend ESB
Talend MDM Platform
Talend Open Studio for Big Data
Talend Open Studio for Data Integration
Talend Open Studio for ESB
Talend Real-Time Big Data Platform
Module
Studio Talend
Content
Création et développement > Systèmes tiers > Services Amazon (Intégration) > Composants Amazon S3
Gouvernance de données > Systèmes tiers > Services Amazon (Intégration) > Composants Amazon S3
Qualité et préparation de données > Systèmes tiers > Services Amazon (Intégration) > Composants Amazon S3
Last publication date
2023-06-14

Procédure

  1. Double-cliquez sur le tS3Configuration pour ouvrir sa vue Component.
    Spark utilise ce composant pour se connecter au système S3 dans lequel votre Job écrit les données métier. Si vous n'utilisez pas un composant tS3Configuration ou tout autre composant qui supporte Databricks sur AWS, ces données métier sont écrites dans le Databricks Filesystem (DBFS).

    Exemple

  2. Dans les champs Access key et Secret key, saisissez les clés à utiliser pour s'authentifier dans S3.
  3. Dans le champ Bucket name, saisissez le nom du bucket et du dossier dans ce bucket à utiliser pour stocker les données métier, par exemple, mybucket/myfolder. Le dossier est créé à la volée s'il n'existe pas, mais le bucket doit déjà exister à l'exécution.