Ces propriétés sont utilisées pour configurer le tRedshiftOutputBulk s'exécutant dans le framework de Jobs Standard.
Le composant tRedshiftOutputBulk Standard appartient aux familles Cloud et Databases.
Le composant de ce framework est disponible dans tous les produits Talend.
Basic settings
Database |
Sélectionnez un type de base de données dans la liste et cliquez sur Apply. |
Data file path at local |
Spécifiez le chemin d'accès local au fichier à générer. Notez que ce fichier est généré sur la machine où est installé le Studio ou sur laquelle le Job utilisant ce composant est déployé. |
Schema et Edit schema |
Un schéma est une description de lignes. Il définit le nombre de champs (colonnes) à traiter et à passer au composant suivant. Lorsque vous créez un Job Spark, évitez le mot réservé line lors du nommage des champs. |
|
Built-in : le schéma est créé et conservé localement pour ce composant seulement. |
|
Repository : le schéma existe déjà et est stocké dans le Repository. Ainsi, il peut être réutilisé dans des Jobs et projets. |
|
Modifiez le schéma en cliquant sur Edit Schema. Si le schéma est en mode Repository, trois options sont disponibles :
|
Compress the data file |
Cochez cette case et sélectionnez dans la liste un type de compression pour le fichier de données. Cette case est indisponible lorsque la case Append the local file est cochée. |
Encrypt |
Cochez cette case pour générer et charger le fichier de données dans Amazon S3 en utilisant le chiffrement côté client. Dans le champ Encryption key affiché, saisissez la clé de chiffrement utilisée pour chiffrer le fichier. Cette case est décochée par défaut et le fichier de données est chargé dans Amazon S3 en utilisant le chiffrement côté serveur. Pour plus d'informations concernant le chiffrement côté serveur et côté client, consultez Protecting Data Using Encryption (en anglais). |
Access Key |
Spécifiez l'ID de la clé d'accès identifiant de manière unique un compte AWS. Pour savoir comment obtenir votre clé d'accès et votre clé secrète d'accès, consultez Getting Your AWS Access Keys (en anglais). |
Secret Key |
Spécifiez la clé secrète d'accès, constituant les informations de sécurité, ainsi que la clé d'accès. Pour saisir la clé secrète, cliquez sur le bouton [...] à côté du champ Secret key, puis, dans la boîte de dialogue qui s'ouvre, saisissez le mot de passe entre guillemets doubles puis cliquez sur OK afin de sauvegarder les paramètres. |
Inherit credentials from AWS role |
Cochez cette case pour obtenir les informations de sécurité AWS pour les métadonnées de l'instance Amazon EC2. Pour utiliser cette option, l'instance Amazon EC2 doit être démarrée et votre Job doit être en cours d'exécution sur Amazon EC2. Pour plus d'informations, consultez Utilisation d'un rôle IAM pour accorder des autorisations à des applications s'exécutant sur des instances Amazon EC2 . |
Assume role |
Si vous avez temporairement besoin d'autorisations d'accès relatives à un rôle AWS IAM qui n'est pas octroyé à votre compte d'utilisateur, cochez cette case afin d'assumer ce rôle. Puis, spécifiez les valeurs des paramètres suivants pour créer une session du rôle. |
Region |
Spécifiez la zone géographique AWS en sélectionnant le nom d'une zone géographique dans la liste ou en saisissant le nom de la zone entre guillemets doubles ("us-east-1" par exemple) dans la liste. Pour plus d'informations concernant les zones géographiques AWS, consultez Régions et points de terminaison AWS . |
STS Endpoint |
Cochez cette case et, dans le champ qui s'affiche, spécifiez l'endpoint du service AWS Security Token Service, par exemple sts.amazonaws.com, duquel les informations d'authentification sont récupérées. Cette case est disponible uniquement lorsque la case Assume role est cochée. |
Bucket |
Saisissez le nom du bucket Amazon S3, le dossier de plus haut niveau, dans lequel charger le fichier. Le bucket et la base de données Redshift à utiliser doivent se situer dans la même région sur Amazon. Cela permet d'éviter les erreurs S3ServiceException d'Amazon. Pour plus d'informations concernant ces erreurs, consultez S3ServiceException Errors (en anglais). |
Key |
Saisissez la clé d'objet assignée au fichier chargé dans Amazon S3. |
Advanced settings
Field Separator |
Saisissez le caractère utilisé pour séparer les champs. |
Text enclosure |
Sélectionnez le caractère avec lequel entourer les champs. |
Delete local file after putting it to S3 |
Cochez cette case pour supprimer le fichier local après son chargement dans Amazon S3. Par défaut, cette case est cochée. |
Create directory if not exists |
Cochez cette case pour créer le répertoire spécifié dans le champ Data file path at local, s'il n'existe pas. Par défaut, cette case est cochée. |
Encoding |
Sélectionnez un type d'encodage pour les données dans le fichier à générer. |
Config client |
Cochez cette case afin de configurer les paramètres clients pour Amazon S3. Cliquez sur le bouton [+] sous la table pour ajouter autant de lignes que nécessaire, chaque ligne pour un paramètre de configuration client, et configurez la valeur des attributs suivants pour chaque paramètre :
|
tStatCatcher Statistics |
Cochez cette case pour collecter les métadonnées de traitement du Job au niveau du Job ainsi qu'au niveau de chaque composant. |
Variables globales
Global Variables |
NB_LINE : nombre de lignes traitées. Cette variable est une variable After et retourne un entier. ERROR_MESSAGE : message d'erreur généré par le composant lorsqu'une erreur survient. Cette variable est une variable After et retourne une chaîne de caractères. Cette variable fonctionne uniquement si la case Die on error est décochée, lorsque le composant contient cette case. Une variable Flow fonctionne durant l'exécution d'un composant. Une variable After fonctionne après l'exécution d'un composant. Pour renseigner un champ ou une expression à l'aide d'une variable, appuyez sur les touches Ctrl+Espace pour accéder à la liste des variables. À partir de cette liste, vous pouvez choisir la variable que vous souhaitez utiliser. Pour plus d'informations concernant les variables, consultez le Guide utilisateur du Studio Talend . |
Utilisation
Règle d'utilisation |
Ce composant est généralement utilisé avec le composant tRedshiftBulkExec pour alimenter Amazon Redshift avec un fichier délimité/CSV. Utilisés ensemble, ils permettent de maximiser les performances lorsqu'ils alimentent Amazon Redshift. |