Propriétés du tRedshiftUnload Standard - 7.3

Amazon Redshift

Version
7.3
Language
Français
Product
Talend Big Data
Talend Big Data Platform
Talend Data Fabric
Talend Data Integration
Talend Data Management Platform
Talend Data Services Platform
Talend ESB
Talend MDM Platform
Talend Real-Time Big Data Platform
Module
Studio Talend
Content
Création et développement > Systèmes tiers > Services Amazon (Intégration) > Composants Amazon Redshift
Gouvernance de données > Systèmes tiers > Services Amazon (Intégration) > Composants Amazon Redshift
Qualité et préparation de données > Systèmes tiers > Services Amazon (Intégration) > Composants Amazon Redshift
Last publication date
2024-02-22

Ces propriétés sont utilisées pour configurer le tRedshiftUnload s'exécutant dans le framework de Jobs Standard.

Le composant tRedshiftUnload Standard appartient aux familles Cloud et Bases de données.

Le composant de ce framework est disponible dans tous les produits Talend.

Basic settings

Property Type

Peut-être Built-In ou Repository.

  • Built-in : Propriétés utilisées ponctuellement.

  • Repository : sélectionnez le référentiel dans lequel sont stockées les propriétés. Les champs de connexion à la base de données suivants sont alors remplis automatiquement à l'aide des données collectées.

Use an existing connection

Cochez cette case et sélectionnez le composant de connexion adéquat dans la liste Component list pour réutiliser les paramètres d'une connexion que vous avez déjà définie.

Host

Saisissez l'adresse IP ou le nom de l'hôte du serveur de la base de données.

Port

Saisissez le numéro du port d'écoute du serveur de la base de données.

Database

Saisissez le nom de la base de données.

Schema

Saisissez le nom du schéma.

Username et Password

Saisissez les données d'authentification de l'utilisateur ou de l'utilisatrice de la base de données.

Pour saisir le mot de passe, cliquez sur le bouton [...] à côté du champ Password, puis, dans la boîte de dialogue qui s'ouvre, saisissez le mot de passe entre guillemets doubles et cliquez sur OK afin de sauvegarder les paramètres.

Additional JDBC Parameters

Définissez des propriétés JDBC supplémentaires pour la connexion que vous créez. Les propriétés sont séparées par une esperluette et chaque propriété est une paire clé-valeur. Par exemple, ssl=true & sslfactory=com.amazon.redshift.ssl.NonValidatingFactory, qui signifie que la connexion sera créée en utilisant le SSL.

Table Name

Saisissez le nom de la table de laquelle lire les données.

Schema et Edit schema

Un schéma est une description de lignes. Il définit le nombre de champs (colonnes) à traiter et à passer au composant suivant. Lorsque vous créez un Job Spark, évitez le mot réservé line lors du nommage des champs.

Built-in : le schéma est créé et conservé localement pour ce composant seulement.

Repository : le schéma existe déjà et est stocké dans le Repository. Ainsi, il peut être réutilisé dans des Jobs et projets.

Créez le schéma en cliquant sur le bouton Edit Schema. Si le schéma est en mode Repository, trois options sont disponibles :

  • View schema : sélectionnez cette option afin de voir uniquement le schéma.

  • Change to built-in property : sélectionnez cette option pour passer le schéma en mode Built-In et effectuer des modifications locales.

  • Update repository connection : sélectionnez cette option afin de modifier le schéma stocké dans le référentiel et décider de propager ou non les modifications à tous les Jobs. Si vous souhaitez propager les modifications uniquement au Job courant, cliquez sur No et sélectionnez à nouveau la métadonnée du schéma dans la fenêtre Repository Content.

Query Type et Query

Saisissez votre requête en faisant particulièrement attention à l'ordre des champs afin qu'ils correspondent à la définition du schéma.

Saisissez deux fois le caractère d'échappement pour chaque guillemet simple dans la requête. Par exemple,
SELECT name, birth,\"Add\" FROM my_table WHERE birth between \\'2018-01-01 00:00:00\\' and \\'2019-01-01 00:00:00\\'

Guess Query

Cliquez sur le bouton pour générer une requête correspondant à votre schéma de table dans le champ Query.

Use an existing S3 connection

Cochez cette case et sélectionnez le composant de connexion adéquat dans la liste Component list pour réutiliser les paramètres d'une connexion que vous avez déjà définie.

Access Key

Spécifiez l'ID de la clé d'accès identifiant de manière unique un compte AWS. Pour savoir comment obtenir votre clé d'accès et votre clé secrète d'accès, consultez Getting Your AWS Access Keys (en anglais).

Cette option n'est pas disponible lorsque la case Use an existing S3 connection est cochée.

Secret Key

Spécifiez la clé secrète d'accès, constituant les informations de sécurité, ainsi que la clé d'accès.

Pour saisir la clé secrète, cliquez sur le bouton [...] à côté du champ Secret key, puis, dans la boîte de dialogue qui s'ouvre, saisissez le mot de passe entre guillemets doubles puis cliquez sur OK afin de sauvegarder les paramètres.

Cette option n'est pas disponible lorsque la case Use an existing S3 connection est cochée.

Assume Role

Cochez cette case et spécifiez les valeurs des paramètres utilisés pour créer une session du rôle.

  • IAM Role ARNs chains : une série de rôles en chaîne, pouvant appartenir à d'autres comptes, que votre cluster peut utiliser pour accéder aux ressources.

    Vous pouvez mettre en chaîne un maximum de dix rôles.

  • Role ARN : nom Amazon Resource Name (ARN) du rôle.

Cette option n'est pas disponible lorsque la case Use an existing S3 connection est cochée.

Pour plus d'informations concernant les chaînes de rôles IAM ARN, consultez Authorizing Redshift service (en anglais).

Bucket

Saisissez le nom du bucket Amazon S3, le dossier de plus haut niveau, duquel retirer les données.

Key prefix

Saisissez le préfixe du nom pour les fichiers à retirer de Amazon S3. Par défaut, les fichiers non chargés sont écrits par tranche du cluster Redshift et les noms de fichier sont écrits au format <object_path>/<name_prefix><slice-number>_part_<file-number>.

Paramètres avancés

File type

Sélectionnez le type des fichiers retirés de Amazon S3 dans la liste :

  • Delimited file or CSV : un fichier délimité/CSV.

  • Fixed width : un fichier à largeur fixe.

  • Apache Parquet : un fichier Apache Parquet.

Remarque : L'option Apache Parquet est disponible uniquement si vous avez installé la mise à jour mensuelle R2020-07 du Studio ou une mise à jour plus récente fournie par Talend. Pour plus d'informations, contactez votre administrateur ou administratrice.

Fields terminated by

Saisissez le caractère utilisé pour séparer les champs.

Ce champ apparaît uniquement lorsque l'option Delimited file or CSV est sélectionnée dans la liste File type.

Enclosed by

Sélectionnez le caractère avec lequel entourer les champs.

Cette liste apparaît uniquement lorsque l'option Delimited file or CSV est sélectionnée dans la liste File type.

Fixed width mapping

Saisissez une chaîne de caractères spécifiant un libellé et une largeur de colonne personnalisés entre guillemets doubles. Le format de la chaîne de caractères est le suivant :

ColumnLabel1:ColumnWidth1,ColumnLabel2:ColumnWidth2,....

Notez que le libellé de la colonne dans la chaîne de caractères n'a aucun lien avec le nom de la colonne de la table et peut être une chaîne de caractères ou un entier. L'ordre des paires libellé/largeur doit correspondre à l'ordre exact des colonnes de la table.

Ce champ apparaît uniquement lorsque l'option Fixed width est sélectionnée dans la liste File type.

Compressed by

Cochez cette case et, dans la liste qui s'affiche, sélectionnez le type de compression des fichiers.

Encrypt

Cochez cette case pour crypter les fichiers retirés à l'aide du cryptage Amazon S3 côté client. Dans le champ Encryption Key qui s'affiche, spécifiez la clé de chiffrement utilisée pour chiffrer le(s) fichier(s) non chargés.

Notez que seule une enveloppe de clé AES 128 bits ou AES 256 bits encodée en base64 est supportée. Pour plus d'informations, consultez Déchargement de fichiers de données chiffrés .

Comme le chiffrement côté client n'est pas supporté pour les fichiers Parquet, cette option fonctionne uniquement pour les fichiers délimités/CSV et à largeur fixe.

Cette option n'est pas disponible lorsque la case Use an existing S3 connection est cochée.

Specify null string

Cochez cette case et, dans la liste qui s'affiche, sélectionnez une chaîne de caractères représentant une valeur nulle dans les fichiers retirés.

Escape

Cochez cette case pour placer un caractère d'échappement (\) avant chaque occurrence des caractères suivants pour les colonnes CHAR et VARCHAR dans les fichiers délimités non chargés : un saut de ligne (\n), un retour chariot (\r), le caractère de délimitation spécifié pour les données non chargées, le caractère d'échappement (\), un caractère guillemet (" ou ').

Overwrite s3 object if exist

Cochez cette case pour écraser les fichiers d'objets existant dans Amazon S3.

Parallel

Cochez cette case pour écrire les données en parallèle dans plusieurs fichiers retirés dans Amazon S3 selon le nombre de slices dans le cluster Redshift.

JDBC URL
Sélectionnez un moyen d'accéder à une base de données Amazon Redshift dans la liste déroulante JDBC URL.
  • Standard : utilisez le moyen standard pour accéder à la base de données Redshift.
  • SSO : utilisez l'authentification unique (SSO) d'IAM pour accéder à la base de données Redshift. Avant de sélectionner cette option, assurez-vous que le rôle IAM ajouté à votre cluster Redshift possède les droits d'accès appropriés à ce cluster. Pour plus d'informations, contactez l'administrateur de vos services AWS.

    Cette option est disponible uniquement lorsque la case Use an existing connection n'est pas cochée dans la vue Basic settings.

tStatCatcher Statistics

Cochez cette case pour collecter les métadonnées de traitement du Job au niveau du Job ainsi qu'au niveau de chaque composant.

Variables globales

Variables globales

ERROR_MESSAGE : message d'erreur généré par le composant lorsqu'une erreur survient. Cette variable est une variable After et retourne une chaîne de caractères. Cette variable fonctionne uniquement si la case Die on error est décochée, lorsque le composant contient cette case.

Une variable Flow fonctionne durant l'exécution d'un composant.

Pour renseigner un champ ou une expression à l'aide d'une variable, appuyez sur les touches Ctrl+Espace pour accéder à la liste des variables. À partir de cette liste, vous pouvez choisir la variable que vous souhaitez utiliser.

Pour plus d'informations concernant les variables, consultez le Guide d'utilisation du Studio Talend.

Utilisation

Règle d'utilisation

Ce composant couvre toutes les requêtes SQL possibles pour la base de données Amazon Redshift.

Dynamic settings

Cliquez sur le bouton [+] pour ajouter une ligne à la table. Dans le champ Code, saisissez une variable de contexte afin de sélectionner dynamiquement votre connexion à la base de données parmi celles prévues dans votre Job. Cette fonctionnalité est utile si vous devez accéder à plusieurs tables de bases de données ayant la même structure mais se trouvant dans différentes bases de données, en particulier lorsque vous travaillez dans un environnement dans lequel vous ne pouvez pas changer les paramètres de votre Job, par exemple lorsque votre Job doit être déployé et exécuté indépendamment d'un Studio Talend.

La table Dynamic settings est disponible uniquement lorsque la case Use an existing connection est cochée dans la vue Basic settings. Lorsqu'un paramètre dynamique est configuré, la liste Component List de la vue Basic settings devient inutilisable.

Pour des exemples d'utilisation de paramètres dynamiques, consultez Lire des données dans des bases de données MySQL à l'aide de connexions dynamiques basées sur les variables de contexte et Lire des données à partir de différentes bases de données MySQL à l'aide de paramètres de connexion chargés dynamiquement. Pour plus d'informations concernant les paramètres dynamiques (Dynamic settings) et les variables de contexte, consultez le Guide d'utilisation du Studio Talend.