Accéder au contenu principal Passer au contenu complémentaire

Propriétés du tFileInputPositional MapReduce (déprécié)

Availability-noteDéprécié·e

Ces propriétés sont utilisées pour configurer le tFileInputPositional s'exécutant dans le framework de Jobs MapReduce.

Le composant tFileInputPositional MapReduce appartient à la famille MapReduce.

Le composant de ce framework est disponible dans tous les produits Talend avec Big Data et dans Talend Data Fabric.

Le framework MapReduce est déprécié à partir de la version 7.3 de Talend. Utilisez des Jobs Talend pour Apache Spark afin d'accomplir vos tâches d'intégration.

Basic settings

Property type

Peut être Built-In ou Repository.

 

Built-In : aucune propriété n'est stockée de manière centrale.

 

Repository : Sélectionnez le fichier dans lequel sont stockées les propriétés du composant.

Les propriétés sont stockées centralement sous le nœud Hadoop Cluster de la vue Repository.

Les champs suivants sont alors pré-remplis à l'aide des données collectées.

Pour plus d'informations concernant le nœud Hadoop Cluster, consultez le Guide de prise en main.

Schema et Edit Schema

Un schéma est une description de lignes. Il définit le nombre de champs (colonnes) à traiter et à passer au composant suivant. Lorsque vous créez un Job Spark, évitez le mot réservé line lors du nommage des champs.

Créez le schéma en cliquant sur le bouton Edit Schema.
Note InformationsRemarque : Si vous effectuez des modifications, le schéma passe automatiquement en type built-in.
 

Built-in : le schéma est créé et conservé localement pour ce composant seulement.

 

Repository : le schéma existe déjà et est stocké dans le Repository. Ainsi, il peut être réutilisé dans des Jobs et projets.

Folder/File

Parcourez votre système ou saisissez le chemin d'accès aux données à utiliser dans le système de fichiers.

Si le chemin d'accès défini pointe vers un dossier, ce composant lit tous les fichiers stockés dans le dossier, par exemple /user/talend/in. Si les sous-dossiers existent, ils sont automatiquement ignorés, sauf si vous définissez la propriété mapreduce.input.fileinputformat.input.dir.recursive à true dans la table Hadoop properties, dans l'onglet Hadoop configuration.

Si vous souhaitez spécifier plus d'un fichier ou répertoire dans ce champ, séparez chaque chemin d'accès par une virgule (,).

Si le fichier à lire est un fichier compressé, saisissez son nom et son extension, puis tFileInputPositional décompresse automatiquement le fichier lors de l'exécution. Les formats de compression, ainsi que les extensions correspondantes, sont :

  • DEFLATE : *.deflate

  • gzip : *.gz

  • bzip2 : *.bz2

  • LZO : *.lzo

Assurez-vous que la connexion à la distribution Hadoop utilisée est correctement configurée dans l'onglet Hadoop configuration de la vue Run.

Die on error

Cochez cette case pour arrêter l'exécution du Job lorsqu'une erreur survient.

Décochez la case pour ignorer les lignes en erreur et terminer le traitement des lignes sans erreur. Lorsque les erreurs sont ignorées, vous pouvez récupérer les lignes en erreur en utilisant la connexion Row > Reject.

Row separator

Saisissez le séparateur utilisé pour identifier la fin d'une ligne.

Customize

Cochez cette case pour personnaliser le format de données du fichier positionnel et définir les colonnes de la table :

Column : sélectionnez la colonne que vous souhaitez personnaliser.

Size : saisissez la taille de la colonne.

Padding char : saisissez, entre guillemets, le caractère de remplissage à supprimer du champ. Ce caractère est par défaut un espace.

Alignment : sélectionnez le paramètre d'alignement approprié.

Pattern

Saisissez, entre guillemets doubles, les valeurs de longueur, séparées par une virgule, interprétées comme des chaînes de caractères. Assurez-vous que les valeurs saisies dans ce champ sont cohérentes avec le schéma défini.

Header

Saisissez le nombre de lignes à ignorer au début du fichier.

Par exemple, saisissez 0 pour ne pas ignorer de ligne dans les données sans en-tête et 1 pour les données dont l'en-tête se trouve dans la première ligne.

Skip empty rows

Cochez cette case pour ignorer les lignes vides.

Advanced settings

Custom Encoding

Il est possible de rencontrer des problèmes d'encodage lorsque vous traitez les données stockées. Dans ce cas, cochez cette case pour afficher la liste Encoding.

Sélectionnez l'encodage à utiliser à partir de la liste ou sélectionnez Custom et définissez-le manuellement.

Advanced separator (for number)

Cochez cette case pour modifier le séparateur utilisé pour les nombres. Par défaut, le séparateur des milliers est une virgule (,) et le séparateur décimal est un point (.).

Trim columns

Cochez cette case pour supprimer les espaces en début et fin de toutes les colonnes. Lorsque cette case est cochée, la table Check column to trim est affichée, ce qui vous permet de sélectionner les colonnes desquelles vous souhaitez enlever les espaces en début et en fin de champ.

Global Variables

Variables globales

ERROR_MESSAGE : message d'erreur généré par le composant lorsqu'une erreur survient. Cette variable est une variable After et retourne une chaîne de caractères. Cette variable fonctionne uniquement si la case Die on error est décochée, lorsque le composant contient cette case.

Une variable Flow fonctionne durant l'exécution d'un composant.

Pour renseigner un champ ou une expression à l'aide d'une variable, appuyez sur les touches Ctrl+Espace pour accéder à la liste des variables. À partir de cette liste, vous pouvez choisir la variable que vous souhaitez utiliser.

Pour plus d'informations concernant les variables, consultez le Guide d'utilisation du Studio Talend.

Utilisation

Règle d'utilisation

Dans un Job Talend Map/Reduce, ce composant est utilisé comme composant de début et requiert un composant de transformation comme lien de sortie. Les autres composants utilisés avec lui doivent également être des composants Map/Reduce. Ils génèrent nativement du code Map/Reduce pouvant être exécuté directement dans Hadoop.

Lorsqu'un Job Map/Reduce est ouvert dans l'espace de modélisation graphique, le tFileInputDelimited et la famille MapReduce s'affiche dans la Palette du Studio.

Notez que, dans cette documentation, sauf mention contraire, un scénario présente uniquement des Jobs Standard, c'est-à-dire des Jobs Talend traditionnels d'intégration de données et non des Jobs Map/Reduce.

Hadoop Connection

Vous devez utiliser l'onglet Hadoop Configuration de la vue Run afin de définir la connexion à une distribution Hadoop donnée pour le Job complet.

Cette connexion fonctionne uniquement pour le Job dans lequel vous l'avez définie.

Cette page vous a-t-elle aidé ?

Si vous rencontrez des problèmes sur cette page ou dans son contenu – une faute de frappe, une étape manquante ou une erreur technique – dites-nous comment nous améliorer !