Propriétés du tHDFSOutput MapReduce - 7.0

HDFS

author
Talend Documentation Team
EnrichVersion
7.0
EnrichProdName
Talend Big Data
Talend Big Data Platform
Talend Data Fabric
Talend Open Studio for Big Data
Talend Real-Time Big Data Platform
task
Création et développement > Systèmes tiers > Composants File (Intégration) > Composants HDFS
Gouvernance de données > Systèmes tiers > Composants File (Intégration) > Composants HDFS
Qualité et préparation de données > Systèmes tiers > Composants File (Intégration) > Composants HDFS
EnrichPlatform
Studio Talend

Ces propriétés sont utilisées pour configurer le tHDFSOutput s'exécutant dans le framework de Jobs MapReduce.

Le composant tHDFSOutput MapReduce appartient à la famille MapReduce.

Le composant de ce framework est disponible dans tous les produits Talend Platform avec Big Data et dans Talend Data Fabric.

Basic settings

Property type

Peut-être Built-In ou Repository.

Built-in : Propriétés utilisées ponctuellement.

Repository : Sélectionnez le fichier de propriétés du composant.

Les propriétés sont stockées centralement sous le nœud Hadoop Cluster de la vue Repository.

Pour plus d'informations concernant le nœud Hadoop Cluster, consultez le Guide de prise en main.

Schema et Edit Schema

Un schéma est une description de lignes, il définit le nombre de champs qui sont traités et passés au composant suivant. Il définit le nombre de champs (colonnes) à traiter et à passer au composant suivant. Lorsque vous créez un Job Spark, évitez le mot réservé line lors du nommage des champs.

Créez le schéma, en cliquant sur le bouton Edit Schema. Si le schéma est en mode Repository, trois options sont disponibles :

  • View schema : sélectionnez cette option afin de voir le schéma.

  • Change to built-in property : sélectionnez cette option pour passer le schéma en mode Built-In et effectuer des modifications locales.

  • Update repository connection : sélectionnez cette option afin de modifier le schéma stocké dans le référentiel et décider de propager ou non les modifications à tous les Jobs. Si vous souhaitez propager les modifications uniquement au Job courant, cliquez sur No et sélectionnez à nouveau la métadonnée du schéma dans la fenêtre [Repository Content].

 

Built-In : le schéma est créé et conservé ponctuellement pour ce composant seulement. Consultez également : le Guide utilisateur du Studio Talend .

 

Repository : Le schéma existe déjà et est stocké dans le Repository. Ainsi, il peut être réutilisé dans des Jobs et projets. Consultez également : le Guide utilisateur du Studio Talend .

Folder

Parcourez votre système ou saisissez le chemin d'accès aux données à utiliser dans le système de fichiers.

Ce chemin d'accès doit pointer vers un dossier et non vers un fichier, car un Job Talend Map/Reduce doit écrire dans ce dossier cible le résultat final mais aussi différents fichiers part- générés durant l'exécution des calculs Map/Reduce.

Assurez-vous que la connexion à la distribution Hadoop utilisée est correctement configurée dans l'onglet Hadoop configuration de la vue Run.

Type

Sélectionnez le type de fichier à traiter. Le type de fichier peut être :
  • Text file.

  • Sequence file : un fichier de séquence Hadoop se compose de paires clé/valeur binaires et convient au framework Map/Reduce. Pour plus d'informations, consultez la page http://wiki.apache.org/hadoop/SequenceFile (en anglais).

    Une fois le format Sequence file sélectionné, les listes Key column et Value column apparaissent et vous permettent de sélectionner les clés et les valeurs de ce fichier de séquence à traiter.

Action

Sélectionnez une opération à effectuer dans HDFS :

Create : Créer un fichier et écrire des données dans ce fichier.

Overwrite : Ecraser le fichier existant dans le répertoire spécifié dans le champ Folder.

Row separator

Saisissez le séparateur utilisé pour identifier la fin d'une ligne.

Ce champ n'est pas disponible pour un fichier Sequence.

Field separator

Saisissez un caractère, une chaîne de caractères ou une expression régulière pour séparer les champs des données transférées.

Ce champ n'est pas disponible pour un fichier Sequence.

Include header

Cochez cette case pour écrire en sortie l'en-tête des données.

Ce champ n'est pas disponible pour un fichier Sequence.

Custom encoding

Il est possible de rencontrer des problèmes d'encodage lorsque vous traitez les données stockées. Dans ce cas, cochez cette case pour afficher la liste Encoding.

Sélectionnez l'encodage à partir de la liste ou sélectionnez Custom et définissez-le manuellement. Ce champ est obligatoire pour la manipulation des données de base de données. Les encodages supportés dépendent de la JVM que vous utilisez. Pour plus d'informations, consultez https://docs.oracle.com.

Ce champ n'est pas disponible pour un fichier Sequence.

Include header

Cochez cette case pour écrire en sortie l'en-tête des données.

Compression

Cochez la case Compress the data afin de compresser les données de sortie.

Hadoop fournit différents formats de compression permettant de réduire l'espace nécessaire au stockage des fichiers et d'accélérer le transfert de données. Lorsque vous lisez un fichier compressé, le Studio Talend doit le décompresser avant de pouvoir en alimente le flux d'entrée.

Notez que, lorsque le type de fichier à écrire est Sequence File, l'algorithme de compression est embarqué dans les fichiers du conteneur (les fichiers part-) de ce fichier de séquence. Ces fichiers peuvent être lus par un composant Talend comme le tHDFSInput dans des Jobs MapReduce et d'autres applications comprenant le format du fichier de séquence. Lorsque le type est Text File, les fichiers de sortie sont accessibles avec un utilitaire standard de compression prenant en charge les fichiers bzip2 ou gzip.

Merge result to single file

Cochez cette case pour fusionner les fichiers finaux part en un fichier et mettre ce fichier dans un répertoire spécifié.

Une fois cochée, saisissez le chemin d'accès ou parcourez votre système jusqu'au dossier dans lequel stocker le fichier fusionné. Ce répertoire est automatiquement créé s'il n'existe pas.

Les cases suivantes sont utilisées pour gérer les fichiers source et cible :
  • Remove source dir : cochez cette case pour supprimer les fichiers source après la fusion.

  • Override target file : cochez cette case pour écraser le fichier existant à l'emplacement cible. Cette option n'écrase pas le dossier.

Ce champ n'est pas disponible pour un fichier Sequence.

Advanced settings

Advanced separator (for number)

Cochez cette case pour modifier le séparateur utilisé pour les nombres. Par défaut, le séparateur des milliers est une virgule (,) et le séparateur décimal est un point (.).

Use local timezone for date Cochez cette case pour utiliser la date locale de la machine sur laquelle votre Job est exécuté. Si vous ne cochez pas cette case, UTC est automatiquement utilisé pour formater les données de type Date.

Variables globales

Global Variables

ERROR_MESSAGE : message d'erreur généré par le composant lorsqu'une erreur survient. Cette variable est une variable After et retourne une chaîne de caractères. Cette variable fonctionne uniquement si la case Die on error est décochée, lorsque le composant contient cette case.

Une variable Flow fonctionne durant l'exécution d'un composant.

Pour renseigner un champ ou une expression à l'aide d'une variable, appuyez sur les touches Ctrl+Espace pour accéder à la liste des variables.

Pour plus d'informations concernant les variables, consultez le Guide utilisateur du Studio Talend .

Utilisation

Règle d'utilisation

Dans un Job Map/Reduce Talend, ce composant est utilisé en tant que composant de fin et requiert un composant de transformation comme lien d'entrée. Les autres composants utilisés avec lui doivent également être des composants Map/Reduce. Ils génèrent nativement du code Map/Reduce pouvant être exécuté directement dans Hadoop.

Une fois qu'un Job Map/Reduce est ouvert dans l'espace de modélisation graphique, le tHDFSOutput et toute la famille MapReduce apparaissent dans la Palette du Studio Talend .

Notez que, dans cette documentation, sauf mention contraire, un scénario présente uniquement des Jobs Standard, c'est-à-dire des Jobs Talend traditionnels d'intégration de données et non des Jobs Map/Reduce.

Hadoop Connection

Vous devez utiliser l'onglet Hadoop Configuration de la vue Run afin de définir la connexion à une distribution Hadoop donnée pour le Job complet.

Cette connexion fonctionne uniquement pour le Job dans lequel vous l'avez définie.