Ces propriétés sont utilisées pour configurer le tSnowflakeConfiguration s'exécutant dans le framework de Jobs Spark Batch.
Le composant tSnowflakeConfiguration Spark Batch appartient à la famille Bases de données.
Le composant de ce framework est disponible dans tous les produits Talend avec Big Data nécessitant une souscription et dans Talend Data Fabric.
Basic settings
Account |
Dans le champ Account, saisissez, entre guillemets doubles, le nom qui vous a été assigné par Snowflake. |
Région |
Sélectionnez une région AWS ou Azure dans la liste déroulante. |
Username et Password |
Saisissez entre guillemets doubles, vos informations d'authentification à Snowflake. |
Base de données |
Saisissez, entre guillemets doubles, le nom de la base de données Snowflake à utiliser. Ce nom est sensible à la casse et est normalement en lettres capitales dans Snowflake. |
Database Schema |
Saisissez, entre guillemets doubles, le nom du schéma de la base de données à utiliser. Ce nom est sensible à la casse et est normalement en lettres capitales dans Snowflake. |
Warehouse |
Saisissez, entre guillemets doubles, le nom de l'entrepôt Snowflake à utiliser. Ce nom est sensible à la casse et est normalement en lettres capitales dans Snowflake. |
Paramètres avancés
Use Custom Region | Cochez cette case pour utiliser les régions Snowflake personnalisées. |
Custom Region | Saisissez, entre guillemets doubles, le nom de la région à utiliser. Ce nom est sensible à la casse et est normalement en majuscules dans Snowflake. |
Utilisation
Règle d'utilisation |
Ce composant est utilisé sans avoir besoin d'être connecté à d'autres composants. La configuration dans un composant tSnowflakeConfiguration s'applique uniquement aux composants Snowflake associés, utilisant cette configuration, dans le même Job. |
Connexion à Spark |
Dans l'onglet Spark Configuration de la vue Run, définissez la connexion à un cluster Spark donné pour le Job complet. De plus, puisque le Job attend ses fichiers Jar dépendants pour l'exécution, vous devez spécifier le répertoire du système de fichiers dans lequel ces fichiers Jar sont transférés afin que Spark puisse accéder à ces fichiers :
Cette connexion fonctionne uniquement pour le Job dans lequel vous l'avez définie. |