Ces propriétés sont utilisées pour configurer le tBigQueryBulkExec s'exécutant dans le framework de Jobs Standard.
Le composant tBigQueryBulkExec Standard appartient à la famille Big Data.
Le composant de ce framework est disponible dans tous les produits Talend.
Basic settings
Schema et Edit Schema |
Un schéma est une description de lignes. Il définit le nombre de champs (colonnes) dans le Repository. Lorsque vous créez un Job Spark, évitez le mot réservé line lors du nommage des champs. Modifiez le schéma en cliquant sur Edit Schema. Si le schéma est en mode Repository, trois options sont disponibles :
|
|
Built-in : le schéma est créé et conservé localement pour ce composant seulement. |
|
Repository : le schéma existe déjà et est stocké dans le Repository. Ainsi, il peut être réutilisé dans des Jobs et projets. |
Client ID et Client secret |
Collez l'ID du client et son mot de passe ("secret") créés et visibles dans l'onglet API Access du projet hébergeant les services BigQuery et Cloud Storage à utiliser. Pour saisir le Secret du client, cliquez sur le bouton [...] à côté du champ Client Secret, puis, dans la boîte de dialogue qui s'ouvre, saisissez le Secret du client entre guillemets doubles puis cliquez sur OK afin de sauvegarder les paramètres. |
Project ID |
Collez l'ID du projet hébergeant le service BigQuery à utiliser. L'ID de votre projet se trouve dans l'URL de la console de l'API Google ou en passant votre curseur sur le nom du projet dans BigQuery Browser Tool. |
Authorization code |
Collez le code d'autorisation fourni par Google pour l'accès en cours de construction. Pour obtenir le code d'autorisation, vous devez exécuter le Job utilisant ce composant. Lorsque l'exécution du Job est en pause pour afficher une URL, vous devez vous rendre à l'URL donnée afin de copier le code d'autorisation. |
Dataset |
Saisissez le nom de l'ensemble de données dans lequel vous devez transférer des données. |
Table |
Saisissez le nom de la table dans laquelle vous devez transférer les données. Si la table n'existe pas, cochez la case Create the table if it doesn't exist. |
Action on data |
Sélectionnez l'action à effectuer dans la liste déroulante lors du transfert des données dans la table cible. Les actions disponibles sont :
|
Bulk file already exists in Google storage |
Cochez cette case pour réutiliser les informations d'authentification pour vous connecter à Google Cloud Storage, puis renseignez les champs File (fichier) et Header (en-tête). |
Access key et Secret key |
Collez les informations d'authentification obtenues de Google pour envoyer des requêtes à Google Cloud Storage. Pour saisir la clé secrète, cliquez sur le bouton [...] à côté du champ Secret key, puis, dans la boîte de dialogue qui s'ouvre, saisissez le mot de passe entre guillemets doubles puis cliquez sur OK afin de sauvegarder les paramètres. Ces clés peuvent être consultées dans la vue Interoperable Access, sous l'onglet Google Cloud Storage du projet. |
File to upload |
Lorsque les données à transférer à BigQuery ne sont pas stockées dans Google Cloud Storage, parcourez votre système ou saisissez le chemin d'accès à ces données. |
Bucket |
Saisissez le nom du bucket, du conteneur Google Cloud Storage, contenant les données à transférer à Google BigQuery. |
File |
Saisissez le chemin du répertoire des données stockées dans Google Cloud Storage et à transférer à BigQuery. Si les données ne sont pas dans Google Cloud Storage, ce répertoire est utilisé comme destination intermédiaire avant transfert des données à BigQuery. |
Header |
Configurez la valeur pour ignorer l'en-tête des données transférées. Par exemple, saisissez 0 afin de n'ignorer aucune ligne, si vos données ne contiennent pas d'en-tête. |
Die on error |
Cette case est décochée par défaut, afin d'ignorer les lignes en erreur et de terminer le traitement avec les lignes sans erreur. |
Advanced settings
token properties File Name |
Saisissez le chemin d'accès ou parcourez votre système jusqu'au fichier de jeton à utiliser. Lors de la première exécution du Job avec le code Authorization code de Google BigQuery, vous devez saisir dans ce champ le répertoire et le nom du fichier contenant le nouveau jeton (refresh token) à créer et à utiliser. Si ce fichier de jeton a été créé et que vous devez le réutiliser, vous devez spécifier son répertoire ainsi que le nom du fichier dans ce champ. Lorsque seul le nom du fichier de jeton est saisi, le Studio Talend considère le répertoire de ce fichier de jeton comme la racine du dossier du Studio. Pour plus d'informations concernant le refresh token, consultez le manuel de Google BigQuery. |
Set the field delimiter |
Saisissez un caractère, une chaîne de caractères ou une expression régulière pour séparer les champs des données transférées. |
Encoding |
Sélectionnez l'encodage à partir de la liste ou sélectionnez Custom et définissez-le manuellement. Ce champ est obligatoire pour la manipulation des données de base de données. Les encodages supportés dépendent de la JVM que vous utilisez. Pour plus d'informations, consultez https://docs.oracle.com. |
tStatCatcher Statistics |
Cochez cette case pour collecter les données de log, aussi bien au niveau du Job qu'au niveau de chaque composant. |
Global Variables
Global Variables |
ERROR_MESSAGE : message d'erreur généré par le composant lorsqu'une erreur survient. Cette variable est une variable After et retourne une chaîne de caractères. Cette variable fonctionne uniquement si la case Die on error est décochée, lorsque le composant contient cette case. Une variable Flow fonctionne durant l'exécution d'un composant. Une variable After fonctionne après l'exécution d'un composant. Pour renseigner un champ ou une expression à l'aide d'une variable, appuyez sur les touches Ctrl+Espace pour accéder à la liste des variables. À partir de cette liste, vous pouvez choisir la variable que vous souhaitez utiliser. Pour plus d'informations concernant les variables, consultez le Guide utilisateur du Studio Talend . |
Utilisation
Règle d'utilisation |
Ce composant est utilisable en tant que composant standalone. |