Le tHDFSOutput dans des Jobs Talend Map/Reduce - 6.1

Composants Talend Guide de référence

EnrichVersion
6.1
EnrichProdName
Talend Big Data
Talend Big Data Platform
Talend Data Fabric
Talend Data Integration
Talend Data Management Platform
Talend Data Services Platform
Talend ESB
Talend MDM Platform
Talend Open Studio for Big Data
Talend Open Studio for Data Integration
Talend Open Studio for Data Quality
Talend Open Studio for ESB
Talend Open Studio for MDM
Talend Real-Time Big Data Platform
task
Création et développement
Gouvernance de données
Qualité et préparation de données
EnrichPlatform
Studio Talend

Avertissement

Les informations contenues dans cette section concernent uniquement les utilisateurs ayant souscrit à l'une des solutions Big Data de Talend et ne sont pas applicables aux utilisateurs de Talend Open Studio for Big Data.

Dans un Job Map/Reduce Talend, le tHDFSOutput, ainsi que le Job complet utilisant ce composant, génère du code Map/Reduce natif. Cette section présente les propriétés spécifiques du tHDFSOutput lorsqu'il est utilisé dans un Job Map/Reduce. Pour plus d'informations concernant un Job Map/Reduce Talend, consultez le Guide de prise en main de Talend Big Data.

Famille du composant

MapReduce /Output

 

Basic settings

Property type

Peut être Built-in ou Repository.

- Built-in : Propriétés utilisées ponctuellement.

- Repository : Sélectionnez le fichier dans lequel sont stockées les propriétés du composant.

Les propriétés sont stockées centralement sous le nœud Hadoop Cluster de la vue Repository.

Pour plus d'informations concernant le nœud Hadoop Cluster, consultez le Guide de prise en main de Talend Big Data.

 

Schema et Edit Schema

Un schéma est une description de lignes, il définit le nombre de champs (colonnes) qui sont traités et passés au composant suivant. Le schéma est soit local (Built-In), soit distant dans le Repository.

Cliquez sur Edit schema pour modifier le schéma. Si le schéma est en mode Repository, trois options sont disponibles :

  • View schema : sélectionnez cette option afin de voir le schéma.

  • Change to Built-In property : sélectionnez cette option pour passer le schéma en mode Built-In et effectuer des modifications locales.

  • Update repository connection : sélectionnez cette option afin de modifier le schéma stocké dans le référentiel et décider de propager ou non les modifications à tous les Jobs. Si vous souhaitez propager les modifications uniquement au Job courant, sélectionnez No et sélectionnez à nouveau la métadonnée du schéma dans la fenêtre [Repository Content].

  

Built-In : Le schéma est créé et conservé ponctuellement pour ce composant seulement. Voir également le Guide utilisateur du Studio Talend.

  

Repository : Le schéma existe déjà et il est stocké dans le Repository. Ainsi, il peut être réutilisé. Voir également le Guide utilisateur du Studio Talend.

 

Folder

Parcourez votre système ou saisissez le chemin d'accès aux données à utiliser dans le système de fichiers.

Ce chemin d'accès doit pointer vers un dossier et non vers un fichier, car un Job Talend Map/Reduce doit écrire dans ce dossier cible le résultat final mais aussi différents fichiers part- générés durant l'exécution des calculs Map/Reduce.

Assurez-vous que la connexion à la distribution Hadoop utilisée est correctement configurée dans l'onglet Hadoop configuration de la vue Run.

File type

Type

Sélectionnez le type de fichier à traiter. Le type de fichier peut être :

  • Text file.

  • Sequence file : un fichier de séquence Hadoop se compose de paires clé/valeur binaires et convient au framework Map/Reduce. Pour plus d'informations, consultez la page http://wiki.apache.org/hadoop/SequenceFile (en anglais).

    Une fois le format Sequence file sélectionné, les listes Key column et Value column apparaissent et vous permettent de sélectionner les clés et les valeurs de ce fichier de séquence à traiter.

 

Action

Sélectionnez une opération à effectuer dans HDFS :

Create : Créer un fichier et écrire des données dans ce fichier.

Overwrite : Ecraser le fichier existant dans le répertoire spécifié dans le champ Folder.

Row separator

Saisissez le séparateur à utiliser pour identifier la fin des lignes.

Ce champ n'est pas disponible pour un fichier Sequence.

  Field separator

Saisissez un caractère, une chaîne de caractères ou une expression régulière pour séparer les champs des données transférées.

Ce champ n'est pas disponible pour un fichier Sequence.

 

Include header

Cochez cette case pour écrire en sortie l'en-tête des données.

Ce champ n'est pas disponible pour un fichier Sequence.

 

Custom encoding

Il est possible de rencontrer des problèmes d'encodage lorsque vous traitez les données stockées. Dans ce cas, cochez cette case pour afficher la liste Encoding.

Sélectionnez l'encodage à partir de la liste ou sélectionnez Custom et définissez-le manuellement. Ce champ est obligatoire pour la gestion de données de bases de données.

Ce champ n'est pas disponible pour un fichier Sequence.

 

Include header

Cochez cette case pour écrire en sortie l'en-tête des données.

 

Compression

Cochez la case Compress the data afin de compresser les données de sortie.

Hadoop fournit différents formats de compression permettant de réduire l'espace nécessaire au stockage des fichiers et d'accélérer le transfert de données. Lorsque vous lisez un fichier compressé, le Studio Talend doit le décompresser avant de pouvoir en alimente le flux d'entrée.

Notez que, lorsque le type de fichier à écrire est Sequence File, l'algorithme de compression est embarqué dans les fichiers du conteneur (les fichiers part-) de ce fichier de séquence. Ces fichiers peuvent lus par un composant Talend comme le tHDFSInput dans des Jobs MapReduce et d'autres applications comprenant le format du fichier de séquence. Lorsque le type est Text File, les fichiers de sortie sont accessibles avec un utilitaire standard de compression prenant en charge les fichiers bzip2 ou gzip.

 

Merge result to single file

Cochez cette case pour fusionner les fichiers finaux part en un fichier et mettre ce fichier dans un répertoire spécifié.

Une fois cochée, saisissez le chemin d'accès ou parcourez votre système jusqu'au dossier dans lequel stocker le fichier fusionné. Ce répertoire est automatiquement créé s'il n'existe pas.

Les cases suivantes sont utilisées pour gérer les fichiers source et cible :

  • Remove source dir : cochez cette case pour supprimer les fichiers source après la fusion.

  • Override target file : cochez cette case pour écraser le fichier existant à l'emplacement cible. Cette option n'écrase pas le dossier.

Ce champ n'est pas disponible pour un fichier Sequence.

Advanced settings

Advanced separator (for number)

Cochez cette case pour modifier le séparateur utilisé pour les nombres. Par défaut, le séparateur des milliers est une virgule (,) et le séparateur décimal est un point (.).

Global Variables

ERROR_MESSAGE : message d'erreur généré par le composant lorsqu'une erreur survient. Cette variable est une variable After et retourne une chaîne de caractères. Cette variable fonctionne uniquement si la case Die on error est décochée, si le composant a cette option.

Une variable Flow fonctionne durant l'exécution d'un composant. Une variable After fonctionne après l'exécution d'un composant.

Pour renseigner un champ ou une expression à l'aide d'une variable, appuyez sur les touches Ctrl+Espace pour accéder à la liste des variables. A partir de cette liste, vous pouvez choisir la variable que vous souhaitez utiliser.

Pour plus d'informations concernant les variables, consultez le Guide utilisateur du Studio Talend.

Utilisation dans les Jobs Map/Reduce

Dans un Job Talend Map/Reduce, ce composant est utilisé en tant que composant de fin et requiert un composant de transformation comme lien d'entrée. Les autres composants utilisés avec lui doivent également être des composants Map/Reduce. Ils génèrent nativement du code Map/Reduce pouvant être directement exécuté dans Hadoop.

Une fois qu'un Job Map/Reduce est ouvert dans l'espace de modélisation graphique, le tHDFSOutput et toute la famille MapReduce apparaissent dans la Palette du Studio Talend.

Notez que, dans cette documentation, sauf mention contraire, un scénario présente uniquement des Jobs Standard, c'est-à-dire des Jobs Talend traditionnels d'intégration de données et non des Jobs Map/Reduce.

Hadoop Connection

Vous devez utiliser l'onglet Hadoop Configuration de la vue Run afin de définir la connexion à une distribution Hadoop donnée pour le Job complet.

Cette connexion fonctionne uniquement pour le Job dans lequel vous l'avez définie.