Accéder au contenu principal Passer au contenu complémentaire

Propriétés du tBigQueryOutput Standard

Ces propriétés sont utilisées pour configurer le tBigQueryOutput s'exécutant dans le framework de Jobs Standard.

Le composant tBigQueryOutput Standard appartient à la famille Big Data.

Le composant de ce framework est disponible dans tous les produits Talend.

Basic settings

Schema et Edit schema

Un schéma est une description de lignes. Il définit le nombre de champs (colonnes) à traiter et à passer au composant suivant. Lorsque vous créez un Job Spark, évitez le mot réservé line lors du nommage des champs.

  • Built-in : le schéma est créé et conservé localement pour ce composant seulement.

  • Repository : le schéma existe déjà et est stocké dans le Repository. Ainsi, il peut être réutilisé dans des Jobs et projets.

Créez le schéma en cliquant sur le bouton Edit Schema. Si vous effectuez des modifications, le schéma passe automatiquement en type built-in.

  • View schema : sélectionnez cette option afin de voir uniquement le schéma.

  • Change to built-in property : sélectionnez cette option pour passer le schéma en mode Built-In et effectuer des modifications locales.

  • Update repository connection : sélectionnez cette option afin de modifier le schéma stocké dans le référentiel et décider de propager ou non les modifications à tous les Jobs.

    Si vous souhaitez propager les modifications uniquement au Job courant, cliquez sur No et sélectionnez à nouveau la métadonnée du schéma dans la fenêtre Repository Content.

Ce composant offre la fonction de schéma dynamique. Cela vous permet de récupérer des colonnes inconnues de fichiers sources ou de copier des lots de colonnes d'une source sans avoir à mapper chaque colonne individuellement. Pour plus d'informations concernant les schémas dynamiques, consultez Schéma dynamique.

Cette fonctionnalité de schéma dynamique est conçue pour permettre de récupérer des colonnes inconnues d'une table. Il est recommandé de l'utiliser uniquement à cet effet et non pour créer des tables.

 
  • Le type Record de BigQuery n'est pas supporté.
  • Les colonnes pour les métadonnées de tables, comme la colonne Description ou Mode ne peuvent être récupérées.
  • Les données d'horodatage Timestamp de votre système BigQuery sont formatées en type String.
  • Les données numériques de BigQuery sont converties en BigDecimal.

Property type

Built-in : le schéma est créé et conservé localement pour ce composant seulement.

Repository : le schéma existe déjà et est stocké dans le Repository. Ainsi, il peut être réutilisé dans des Jobs et projets.

Local filename

Parcourez votre système ou saisissez le chemin d'accès au fichier dans lequel vous souhaitez écrire les données reçues.

Append

Cochez cette case pour ajouter des lignes aux données existantes dans le fichier spécifié dans le champ Local filename.

Mode d'authentification Sélectionnez le mode à utiliser pour vous authentifier à votre projet.
  • Service account : authentification à l'aide d'un compte Google associé à votre projet Google Cloud Platform. Lorsque vous sélectionnez ce mode, le paramètre à définir est Service account credentials file (Fichier d'identifiants du compte de service).
  • Application Default Credentials (Identifiants par défaut pour l'application) : vous pouvez vous authentifier à l'aide de la méthode Application Default Credentials (Identifiants par défaut pour l'application). Lorsque vous sélectionnez ce mode, aucun paramètre supplémentaire ne doit être défini, car les identifiants sont automatiquement trouvés en se basant sur l'environnement de l'application.
  • OAuth 2.0 : authentification à l'aide des identifiants OAuth. Lorsque vous sélectionnez ce mode, les paramètres à définir sont Client ID (ID client), Client secret (Secret du client) et Authorization code (Code d'autorisation).
  • OAuth Access Token : authentifiez-vous à l'aide d'un jeton d'accès OAuth. Lorsque vous sélectionnez ce mode, le paramètre à définir est OAuth Access Token (Jeton d'accès OAuth).

Pour en savoir plus au sujet des processus d'authentification Google Cloud, consultez la documentation Google Cloud.

Service account credentials file Saisissez le chemin d'accès au fichier contenant les identifiants créé pour le compte de service à utiliser. Ce fichier doit être stocké sur la machine sur laquelle le Job Talend est actuellement lancé et exécuté.

Cette propriété est disponible uniquement lorsque vous vous authentifiez à l'aide d'un Service account (Compte de service).

Client ID et Client Secret

Collez l'ID du client et son mot de passe ("secret") créés et visibles dans l'onglet API Access du projet hébergeant les services Google BigQuery et Cloud Storage à utiliser.

Pour saisir le Secret du client, cliquez sur le bouton [...] à côté du champ Client Secret, puis, dans la boîte de dialogue qui s'ouvre, saisissez le Secret du client entre guillemets doubles puis cliquez sur OK afin de sauvegarder les paramètres.

Cette propriété est disponible uniquement lorsque vous vous authentifiez à l'aide d'OAuth 2.0.

OAuth Access Token Saisissez un jeton d'accès.

La durée de vie d'un jeton est d'une heure. Le composant n'effectue pas d'opération d'actualisation du jeton mais récupère le nouveau jeton pour une opération après la limite d'une heure.

Cette propriété est disponible uniquement lorsque vous vous authentifiez à l'aide d'un Jeton d'accès OAuth.

Project ID

Collez l'ID du projet hébergeant le service Google BigQuery à utiliser.

L'ID de votre projet se trouve dans l'URL de la console de l'API Google ou en passant votre curseur sur le nom du projet dans BigQuery Browser Tool.

Authorization code

Collez le code d'autorisation fourni par Google pour l'accès en cours de construction.

Pour obtenir le code d'autorisation, vous devez exécuter le Job utilisant ce composant. Lorsque l'exécution du Job est en pause pour afficher une URL, vous devez vous rendre à l'URL donnée afin de copier le code d'autorisation.

Jeu de données

Saisissez le nom du jeu de données dans lequel vous devez transférer des données.

Table

Saisissez le nom de la table dans laquelle vous devez transférer les données.

Si la table n'existe pas, cochez la case Create the table if it doesn't exist.

Action on data

Sélectionnez l'action à effectuer dans la liste déroulante lors du transfert des données dans la table cible. Les actions disponibles sont :

  • Truncate : vide le contenu de la table et la repeuple avec les données transférées.

  • Append : ajoute des lignes aux données existantes dans la table.

  • Empty : alimente une table vide.

Credential type Sélectionnez le type à utiliser pour vous authentifier à votre projet.
  • Service account : lorsque vous sélectionnez ce type, le paramètre à définir dans la vue Basic settings est Service account key.
  • Application Default Credentials (Identifiants par défaut pour l'application) : lorsque vous sélectionnez ce type d'identifiants, le paramètre à définir dans la vue Basic settings (Paramètres simples) est Application Default Credentials (Identifiants par défaut pour l'application).
  • OAuth Access Token : lorsque vous sélectionnez ce type, le paramètre à définir dans la vue Basic settings est OAuth Access Token.

Par défaut, Service account est sélectionné. Le champ Credential type est disponible uniquement si vous ne cochez pas la case Bulk file already exists in Google storage.

Service account key

Cliquez sur le bouton [...] près du champ de clé du compte de service afin de parcourir votre système jusqu'au fichier JSON contenant votre clé de compte de service.

Cette propriété est disponible uniquement lorsque vous vous authentifiez à l'aide d'un Service account (Compte de service).

Access Key et Secret Key

Collez les informations d'authentification obtenues de Google pour envoyer des requêtes à Google Cloud Storage.

Pour saisir la clé secrète, cliquez sur le bouton [...] à côté du champ Secret key, puis, dans la boîte de dialogue qui s'ouvre, saisissez le mot de passe entre guillemets doubles puis cliquez sur OK afin de sauvegarder les paramètres.

Ces clés peuvent être consultées dans la vue Interoperable Access, sous l'onglet Google Cloud Storage du projet.

OAuth Access Token Saisissez un jeton d'accès.

La durée de vie d'un jeton est d'une heure. Le composant n'effectue pas d'opération d'actualisation du jeton mais récupère le nouveau jeton pour une opération après la limite d'une heure.

Cette propriété est disponible uniquement lorsque vous vous authentifiez à l'aide d'un Jeton d'accès OAuth.

Bucket

Saisissez le nom du bucket, du conteneur Google Cloud Storage, contenant les données à transférer à Google BigQuery.

Fichier

Saisissez le chemin du répertoire des données stockées dans Google Cloud Storage et à transférer à Google BigQuery. Ces données doivent être stockées directement sous la racine du bucket. Par exemple, saisissez gs://my_bucket/my_file.csv.

Si les données ne sont pas dans Google Cloud Storage, ce répertoire est utilisé comme destination intermédiaire avant transfert des données à Google BigQuery.

Notez que le nom de ce fichier doit être identique au nom du fichier spécifié dans le champ Local filename.

Header

Saisissez le nombre de lignes d'en-tête à ignorer dans les données transférées. Par exemple, saisissez 0 pour ne pas ignorer de lignes dans les données sans en-tête et 1 pour les données dont l'en-tête se trouve dans la première ligne.

Die on error

Cette case est décochée par défaut, ce qui vous permet de terminer le traitement avec les lignes sans erreur, et d'ignorer les lignes en erreur.

Advanced settings

token properties File Name

Saisissez le chemin d'accès ou parcourez votre système jusqu'au fichier de jeton à utiliser.

Lors de la première exécution du Job avec le code Authorization code de Google BigQuery, vous devez saisir dans ce champ le répertoire et le nom du fichier contenant le nouveau jeton (refresh token) à créer et à utiliser. Si ce fichier de jeton a été créé et que vous devez le réutiliser, vous devez spécifier son répertoire ainsi que le nom du fichier dans ce champ.

Lorsque seul le nom du fichier de jeton est saisi, le Studio Talend considère le répertoire de ce fichier de jeton comme la racine du dossier du Studio Talend.

Pour plus d'informations concernant le refresh token, consultez le manuel de Google BigQuery.

Field Separator

Saisissez un caractère, une chaîne de caractères ou une expression régulière pour séparer les champs des données transférées.

Drop table if exists and create :

Sélectionnez l'option Drop table if exists afin de supprimer la table spécifiée dans le champ Table, si elle existe déjà.

Create directory if not exists

Cochez cette case pour créer le répertoire que vous avez défini dans le champ File pour Google Cloud Storage, s'il n'existe pas.

Custom the flush buffer size

Saisissez le nombre de lignes à traiter avant de libérer la mémoire.

Check disk space

Cochez cette case pour retourner une exception durant l'exécution si le disque est plein.

Encoding

Sélectionnez l'encodage à partir de la liste ou sélectionnez Custom et définissez-le manuellement. Ce champ est obligatoire pour la manipulation des données de base de données. Les encodages supportés dépendent de la JVM que vous utilisez. Pour plus d'informations, consultez https://docs.oracle.com.

tStatCatcher Statistics

Cochez cette case afin de collecter les données de log au niveau des composants.

Variables globales

ERROR_MESSAGE

Message d'erreur généré par le composant lorsqu'une erreur survient. Cette variable est une variable After et retourne une chaîne de caractères. Cette variable fonctionne uniquement lorsque la case Die on error est cochée.

JOBID

L'ID du Job. Cette variable est une variable After et retourne une chaîne de caractères.

STATISTICS

Les statistiques du Job. Cette variable est une variable After et retourne une chaîne de caractères.

Utilisation

Règle d'utilisation

Ce composant est un composant de sortie. Il reçoit les données du composant précédent, comme le tFileInputDelimited, le tMap ou le tMysqlInput.

Ce composant supporte et détecte automatiquement les localités régionales et multi-régionales. Lorsque les localités régionales sont utilisées, les buckets et jeux de données à utiliser doivent se trouver au même emplacement.

Cette page vous a-t-elle aidé ?

Si vous rencontrez des problèmes sur cette page ou dans son contenu – une faute de frappe, une étape manquante ou une erreur technique – dites-nous comment nous améliorer !