Ces propriétés sont utilisées pour configurer le tExtractRegexFields s'exécutant dans le framework de Jobs Spark Streaming.
Le composant tExtractRegexFields Spark Streaming appartient à la famille Traitement.
Ce composant est disponible dans Talend Real Time Big Data Platform et dans Talend Data Fabric.
Basic settings
Prev.Comp.Column list |
Sélectionnez la colonne de laquelle extraire les données. |
RegEx |
Renseignez l'expression régulière en fonction du langage de programmation que vous utilisez. |
Schema et Edit schema |
Un schéma est une description de lignes. Il définit le nombre de champs (colonnes) à traiter et à passer au composant suivant. Lorsque vous créez un Job Spark, évitez le mot réservé line lors du nommage des champs. Modifiez le schéma en cliquant sur Edit Schema. Si le schéma est en mode Repository, trois options sont disponibles :
Cliquez sur le bouton Sync columns afin de récupérer le schéma du composant précédent. Avertissement :
Vérifiez que le schéma de sortie ne contient pas de colonne ayant le même nom que la colonne d'entrée à diviser. Sinon, l'expression régulière ne fonctionnera pas comme supposé. |
|
Built-in : le schéma est créé et conservé localement pour ce composant seulement. |
|
Repository : le schéma existe déjà et est stocké dans le Repository. Ainsi, il peut être réutilisé dans des Job Designs et projets. |
Die on error |
Cochez cette case pour arrêter l'exécution du Job lorsqu'une erreur survient. |
Advanced settings
Encoding |
Sélectionnez l'encodage à partir de la liste ou sélectionnez Custom et définissez-le manuellement. Ce champ est obligatoire pour la manipulation des données de base de données. Les encodages supportés dépendent de la JVM que vous utilisez. Pour plus d'informations, consultez https://docs.oracle.com. |
Utilisation
Usage rule |
Ce composant est utilisé comme étape intermédiaire. Ce composant, ainsi que les composants Spark Streaming de la Palette à laquelle il appartient, s'affichent uniquement lorsque vous créez un Job Spark Streaming. Notez que, dans cette documentation, sauf mention contraire, un scénario présente uniquement des Jobs Standard, c'est-à-dire des Jobs Talend traditionnels d'intégration de données. |
Spark Connection |
Dans l'onglet Spark Configuration de la vue Run, définissez la connexion à un cluster Spark donné pour le Job complet. De plus, puisque le Job attend ses fichiers Jar dépendants pour l'exécution, vous devez spécifier le répertoire du système de fichiers dans lequel ces fichiers Jar sont transférés afin que Spark puisse accéder à ces fichiers :
Cette connexion fonctionne uniquement pour le Job dans lequel vous l'avez définie. |