Configurer la connexion au service S3 à utiliser dans Spark - 7.3

Databricks

Version
7.3
Language
Français (France)
Product
Talend Big Data
Talend Big Data Platform
Talend Data Fabric
Talend Open Studio for Big Data
Talend Real-Time Big Data Platform
Module
Studio Talend
Content
Création et développement > Création de Jobs > Distributions Hadoop > Databricks
Création et développement > Création de Jobs > Serverless > Databricks

Procédure

  1. Double-cliquez sur le tS3Configuration pour ouvrir sa vue Component.
    Spark utilise ce composant pour se connecter au système S3 dans lequel votre Job écrit les données métier. Si vous n'utilisez pas un composant tS3Configuration ou tout autre composant qui supporte Databricks sur AWS, ces données métier sont écrites dans le Databricks Filesystem (DBFS).

    Exemple

  2. Dans les champs Access key et Secret key, saisissez les clés à utiliser pour s'authentifier dans S3.
  3. Dans le champ Bucket name, saisissez le nom du bucket et du dossier dans ce bucket à utiliser pour stocker les données métier, par exemple, mybucket/myfolder. Le dossier est créé à la volée s'il n'existe pas, mais le bucket doit déjà exister à l'exécution.