Propriétés du tRedshiftOutputBulk Standard - 7.2

Amazon Redshift

Version
7.2
Language
Français (France)
Product
Talend Big Data
Talend Big Data Platform
Talend Data Fabric
Talend Data Integration
Talend Data Management Platform
Talend Data Services Platform
Talend ESB
Talend MDM Platform
Talend Open Studio for Big Data
Talend Open Studio for Data Integration
Talend Open Studio for ESB
Talend Real-Time Big Data Platform
Module
Studio Talend
Content
Création et développement > Systèmes tiers > Services Amazon (Intégration) > Composants Amazon Redshift
Gouvernance de données > Systèmes tiers > Services Amazon (Intégration) > Composants Amazon Redshift
Qualité et préparation de données > Systèmes tiers > Services Amazon (Intégration) > Composants Amazon Redshift

Ces propriétés sont utilisées pour configurer le tRedshiftOutputBulk s'exécutant dans le framework de Jobs Standard.

Le composant tRedshiftOutputBulk Standard appartient aux familles Cloud et Bases de données.

Le composant de ce framework est disponible dans tous les produits Talend.

Remarque : Ce composant est une version spécifique d'un connecteur à une base de données dynamique. Les propriétés associées aux paramètres de la base de données dépendent du type de base de données sélectionné. Pour plus d'informations concernant les connecteurs aux bases de données, consultez Utiliser des composants de bases de données dynamiques.

Paramètres simples

Database

Sélectionnez un type de base de données dans la liste et cliquez sur Apply.

Data file path at local

Spécifiez le chemin d'accès local au fichier à générer.

Notez que ce fichier est généré sur la machine où est installé le Studio ou sur laquelle le Job utilisant ce composant est déployé.

Schema et Edit schema

Un schéma est une description de lignes. Il définit le nombre de champs (colonnes) à traiter et à passer au composant suivant. Lorsque vous créez un Job Spark, évitez le mot réservé line lors du nommage des champs.

 

Built-in : le schéma est créé et conservé localement pour ce composant seulement.

 

Repository : le schéma existe déjà et est stocké dans le Repository. Ainsi, il peut être réutilisé dans des Job Designs et projets.

 

Modifiez le schéma en cliquant sur Edit Schema. Si le schéma est en mode Repository, trois options sont disponibles :

  • View schema : sélectionnez cette option afin de voir uniquement le schéma.

  • Change to built-in property : sélectionnez cette option pour passer le schéma en mode Built-In et effectuer des modifications locales.

  • Update repository connection : sélectionnez cette option afin de modifier le schéma stocké dans le référentiel et décider de propager ou non les modifications à tous les Jobs. Si vous souhaitez propager les modifications uniquement au Job courant, cliquez sur No et sélectionnez à nouveau la métadonnée du schéma dans la fenêtre Repository Content.

Compress the data file

Cochez cette case et sélectionnez dans la liste un type de compression pour le fichier de données.

Cette case est indisponible lorsque la case Append the local file est cochée.

Encrypt

Cochez cette case pour générer et charger le fichier de données dans Amazon S3 en utilisant le chiffrement côté client. Dans le champ Encryption key affiché, saisissez la clé de chiffrement utilisée pour chiffrer le fichier.

Cette case est décochée par défaut et le fichier de données est chargé dans Amazon S3 en utilisant le chiffrement côté serveur.

Pour plus d'informations concernant le chiffrement côté serveur et côté client, consultez Protection des données à l'aide d'un chiffrement.

Access Key

Spécifiez l'ID de la clé d'accès identifiant de manière unique un compte AWS. Pour savoir comment obtenir votre clé d'accès et votre clé secrète d'accès, consultez Getting Your AWS Access Keys (en anglais).

Secret Key

Spécifiez la clé secrète d'accès, constituant les informations de sécurité, ainsi que la clé d'accès.

Pour saisir la clé secrète, cliquez sur le bouton [...] à côté du champ Secret key, puis, dans la boîte de dialogue qui s'ouvre, saisissez le mot de passe entre guillemets doubles puis cliquez sur OK afin de sauvegarder les paramètres.

Inherit credentials from AWS role

Cochez cette case pour obtenir les informations de sécurité AWS pour les métadonnées de l'instance Amazon EC2. Pour utiliser cette option, l'instance Amazon EC2 doit être démarrée et votre Job doit être en cours d'exécution sur Amazon EC2. Pour plus d'informations, consultez Utilisation d'un rôle IAM pour accorder des autorisations à des applications s'exécutant sur des instances Amazon EC2.

Assume role

Si vous avez temporairement besoin d'autorisations d'accès relatives à un rôle AWS IAM qui n'est pas octroyé à votre compte d'utilisateur·trice, cochez cette case afin d'assumer ce rôle. Puis, spécifiez les valeurs des paramètres suivants pour créer une session du rôle.

Region

Spécifiez la zone géographique AWS en sélectionnant le nom d'une zone géographique dans la liste ou en saisissant le nom de la zone entre guillemets doubles ("us-east-1" par exemple) dans la liste. Pour plus d'informations concernant les zones géographiques AWS, consultez Régions et points de terminaison AWS .

STS Endpoint

Cochez cette case et, dans le champ qui s'affiche, spécifiez l'endpoint du service AWS Security Token Service, par exemple sts.amazonaws.com, duquel les informations d'authentification sont récupérées.

Cette case est disponible uniquement lorsque la case Assume role est cochée.

Bucket

Saisissez le nom du bucket Amazon S3, le dossier de plus haut niveau, dans lequel charger le fichier.

Le bucket et la base de données Redshift à utiliser doivent se situer dans la même région sur Amazon. Cela permet d'éviter les erreurs S3ServiceException d'Amazon. Pour plus d'informations concernant ces erreurs, consultez S3ServiceException Errors (en anglais).

Key

Saisissez la clé d'objet assignée au fichier chargé dans Amazon S3.

Paramètres avancés

Field Separator

Saisissez le caractère utilisé pour séparer les champs.

Text enclosure

Sélectionnez le caractère avec lequel entourer les champs.

Delete local file after putting it to S3

Cochez cette case pour supprimer le fichier local après son chargement dans Amazon S3. Par défaut, cette case est cochée.

Create directory if not exists

Cochez cette case pour créer le répertoire spécifié dans le champ Data file path at local, s'il n'existe pas. Par défaut, cette case est cochée.

Encoding

Sélectionnez un type d'encodage pour les données dans le fichier à générer.

Config client

Cochez cette case afin de configurer les paramètres clients pour Amazon S3. Cliquez sur le bouton [+] sous la table pour ajouter autant de lignes que nécessaire, chaque ligne pour un paramètre de configuration client, et configurez la valeur des attributs suivants pour chaque paramètre :

  • Client Parameter : cliquez dans la cellule et sélectionnez un paramètre dans la liste déroulante.

  • Value : saisissez la valeur du paramètre client correspondant.

Pour plus d'informations concernant les paramètres clients S3 , consultez Configuration du client.

tStatCatcher Statistics

Cochez cette case pour collecter les métadonnées de traitement du Job au niveau du Job ainsi qu'au niveau de chaque composant.

Variables globales

Global Variables

NB_LINE : nombre de lignes traitées. Cette variable est une variable After et retourne un entier.

ERROR_MESSAGE : message d'erreur généré par le composant lorsqu'une erreur survient. Cette variable est une variable After et retourne une chaîne de caractères. Cette variable fonctionne uniquement si la case Die on error est décochée, lorsque le composant contient cette case.

Une variable Flow fonctionne durant l'exécution d'un composant. Une variable After fonctionne après l'exécution d'un composant.

Pour renseigner un champ ou une expression à l'aide d'une variable, appuyez sur les touches Ctrl+Espace pour accéder à la liste des variables. À partir de cette liste, vous pouvez choisir la variable que vous souhaitez utiliser.

Pour plus d'informations concernant les variables, consultez le Guide d'utilisation du Studio Talend .

Utilisation

Usage rule

Ce composant est généralement utilisé avec le composant tRedshiftBulkExec pour alimenter Amazon Redshift avec un fichier délimité/CSV. Utilisés ensemble, ils permettent de maximiser les performances lorsqu'ils alimentent Amazon Redshift.