Propriétés du tHDFSOutput MapReduce (déprécié) - 7.3

HDFS

EnrichVersion
Cloud
7.3
EnrichProdName
Talend Big Data
Talend Big Data Platform
Talend Data Fabric
Talend Open Studio for Big Data
Talend Real-Time Big Data Platform
EnrichPlatform
Studio Talend
task
Création et développement > Systèmes tiers > Composants File (Intégration) > Composants HDFS
Gouvernance de données > Systèmes tiers > Composants File (Intégration) > Composants HDFS
Qualité et préparation de données > Systèmes tiers > Composants File (Intégration) > Composants HDFS

Ces propriétés sont utilisées pour configurer le tHDFSOutput s'exécutant dans le framework de Jobs MapReduce.

Le composant tHDFSOutput MapReduce appartient à la famille MapReduce.

Le composant de ce framework est disponible dans tous les produits Talend avec Big Data nécessitant une souscription et dans Talend Data Fabric.

Le framework MapReduce est déprécié à partir de la version 7.3 de Talend. Utilisez des Jobs Talend pour Apache Spark afin d'accomplir vos tâches d'intégration.

Basic settings

Property type

Peut être Built-In ou Repository.

Built-In : aucune propriété n'est stockée de manière centrale.

Repository : Sélectionnez le fichier dans lequel sont stockées les propriétés du composant.

Les propriétés sont stockées centralement sous le nœud Hadoop Cluster de la vue Repository.

Pour plus d'informations concernant le nœud Hadoop Cluster, consultez le Guide de prise en main.

Schema et Edit Schema

Un schéma est une description de lignes, il définit le nombre de champs qui sont traités et passés au composant suivant. Il définit le nombre de champs (colonnes) à traiter et à passer au composant suivant. Lorsque vous créez un Job Spark, évitez le mot réservé line lors du nommage des champs.

 

Built-in : le schéma est créé et conservé localement pour ce composant seulement.

 

Repository : le schéma existe déjà et est stocké dans le Repository. Ainsi, il peut être réutilisé dans divers projets et Jobs.

Dossier

Parcourez votre système ou saisissez le chemin d'accès aux données à utiliser dans le système de fichiers.

Ce chemin d'accès doit pointer vers un dossier et non un fichier, car un Job Map/Reduce Talend doit écrire dans un dossier cible le résultat final mais aussi les différents fichiers part- générés durant les calculs Map/Reduce.

Assurez-vous que la connexion à la distribution Hadoop utilisée est correctement configurée dans l'onglet Hadoop configuration de la vue Run.

Type

Sélectionnez le type de fichier à traiter. Le type de fichier peut être :
  • Text file.

  • Sequence file : un fichier de séquence Hadoop se compose de paires clé/valeur binaires et convient au framework Map/Reduce. Pour plus d'informations, consultez la page http://wiki.apache.org/hadoop/SequenceFile (en anglais).

    Une fois le format Sequence file sélectionné, les listes Key column et Value column apparaissent et vous permettent de sélectionner les clés et les valeurs de ce fichier de séquence à traiter.

Action

Sélectionnez une opération à effectuer dans HDFS :

Create : créer un fichier et écrire les données dedans.

Overwrite : écraser le fichier existant dans le répertoire spécifié dans le champ Folder.

Row separator

Saisissez le séparateur utilisé pour identifier la fin d'une ligne.

Ce champ n'est pas disponible pour un fichier Sequence.

Field separator

Saisissez un caractère, une chaîne de caractères ou une expression régulière pour séparer les champs des données transférées.

Ce champ n'est pas disponible pour un fichier Sequence.

Inclure l'en-tête

Cochez cette case pour écrire en sortie l'en-tête des données.

Ce champ n'est pas disponible pour un fichier Sequence.

Custom encoding

Il est possible de rencontrer des problèmes d'encodage lorsque vous traitez les données stockées. Dans ce cas, cochez cette case pour afficher la liste Encoding.

Sélectionnez l'encodage à partir de la liste ou sélectionnez Custom et définissez-le manuellement. Ce champ est obligatoire pour la manipulation des données de base de données. Les encodages supportés dépendent de la JVM que vous utilisez. Pour plus d'informations, consultez https://docs.oracle.com.

Ce champ n'est pas disponible pour un fichier Sequence.

Compression

Cochez la case Compress the data afin de compresser les données de sortie.

Hadoop fournit différents formats de compression permettant de réduire l'espace nécessaire au stockage des fichiers et d'accélérer le transfert de données. Lorsque vous lisez un fichier compressé, le Studio Talend doit le décompresser avant de pouvoir en alimenter le flux d'entrée.

Notez que, lorsque le type de fichier à écrire est Sequence File, l'algorithme de compression est embarqué dans les fichiers du conteneur (les fichiers part-) de ce fichier de séquence. Ces fichiers peuvent lus par un composant Talend comme le tHDFSInput dans des Jobs MapReduce et d'autres applications comprenant le format du fichier de séquence. Lorsque le type est Text File, les fichiers de sortie sont accessibles avec un utilitaire standard de compression prenant en charge les fichiers bzip2 ou gzip.

Fusionner les résultats en un fichier

Cochez cette case pour fusionner les fichiers finaux part en un fichier et mettre ce fichier dans un répertoire spécifié.

Une fois cochée, saisissez le chemin d'accès ou parcourez votre système jusqu'au dossier dans lequel stocker le fichier fusionné. Ce répertoire est automatiquement créé s'il n'existe pas.

Les cases suivantes sont utilisées pour gérer les fichiers sources et cible :
  • Remove source dir  : cochez cette case pour supprimer les fichiers source après la fusion.

  • Override target file : cochez cette case pour écraser le fichier existant à l'emplacement cible. Cette option n'écrase pas le dossier.

Si ce composant écrit des fichiers fusionnés avec un cluster Databricks, ajoutez le paramètre suivant dans la console de configuration de votre cluster :
spark.sql.sources.commitProtocolClass org.apache.spark.sql.execution.datasources.SQLHadoopMapReduceCommitProtocol
Ce paramètre empêche la fusion des fichiers, y compris le fichier de log automatiquement généré par le service DBIO de Databricks.

Ce champ n'est pas disponible pour un fichier Sequence.

Paramètres avancés

Advanced separator (for numbers)

Cochez cette option pour modifier les séparateurs utilisés pour les nombres. Par défaut, le séparateur des milliers est une virgule (,) et le séparateur décimal est un point (.).

Use local timezone for date Cochez cette case pour utiliser la date locale de la machine sur laquelle votre Job est exécuté. Si vous ne cochez pas cette case, UTC est automatiquement utilisé pour formater les données de type Date.

Variables globales

Variables globales

ERROR_MESSAGE : message d'erreur généré par le composant lorsqu'une erreur survient. Cette variable est une variable After et retourne une chaîne de caractères. Cette variable fonctionne uniquement si la case Die on error est décochée, lorsque le composant contient cette case.

Une variable Flow fonctionne durant l'exécution d'un composant. Une variable After fonctionne après l'exécution d'un composant.

Pour renseigner un champ ou une expression à l'aide d'une variable, appuyez sur les touches Ctrl+Espace pour accéder à la liste des variables. À partir de cette liste, vous pouvez choisir la variable que vous souhaitez utiliser.

Pour plus d'informations concernant les variables, consultez le Guide d'utilisation du Studio Talend.

Utilisation

Règle d'utilisation

Dans un Job Talend Map/Reduce, ce composant est utilisé en tant que composant de fin et requiert un composant de transformation comme lien d'entrée. Les autres composants utilisés avec lui doivent également être des composants Map/Reduce. Ils génèrent nativement du code Map/Reduce pouvant être exécuté directement dans Hadoop.

Une fois qu'un Job Map/Reduce est ouvert dans l'espace de modélisation graphique, le tHDFSOutput et toute la famille MapReduce apparaissent dans la Palette du Studio.

Notez que, dans cette documentation, sauf mention contraire, un scénario présente uniquement des Jobs Standard, c'est-à-dire des Jobs Talend traditionnels d'intégration de données et non des Jobs Map/Reduce.

Connexion à Hadoop

Vous devez utiliser l'onglet Hadoop Configuration de la vue Run afin de définir la connexion à une distribution Hadoop donnée pour le Job complet.

Cette connexion fonctionne uniquement pour le Job dans lequel vous l'avez définie.