Propriétés du tCollectAndCheck pour Apache Spark Streaming - 6.4

Technical

author
Talend Documentation Team
EnrichVersion
6.4
EnrichProdName
Talend Big Data
Talend Big Data Platform
Talend Data Fabric
Talend Data Integration
Talend Data Management Platform
Talend Data Services Platform
Talend ESB
Talend MDM Platform
Talend Open Studio for Big Data
Talend Open Studio for Data Integration
Talend Open Studio for ESB
Talend Open Studio for MDM
Talend Real-Time Big Data Platform
task
Création et développement > Systèmes tiers > Composants Technical
Gouvernance de données > Systèmes tiers > Composants Technical
Qualité et préparation de données > Systèmes tiers > Composants Technical
EnrichPlatform
Studio Talend

Ces propriétés sont utilisées pour configurer le tCollectAndCheck s'exécutant dans le framework de Jobs Spark Streaming.

Le composant tCollectAndCheck Spark Streaming appartient à la famille Technical.

Ce composant est disponible dansTalend Real Time Big Data Platform et dans Talend Data Fabric.

Basic settings

Separator

Saisissez un caractère, une chaîne de caractères ou une expression régulière pour séparer les champs des données transférées.

Line separator

Saisissez le séparateur utilisé pour identifier la fin d'une ligne.

Micro batch separator

Saisissez le séparateur utilisé pour identifier la fin d'un micro-batch dans le flux de données.

Use context variable

Si vous avez déjà créé la variable de contexte représentant le fichier de référence à utiliser, cochez cette case et saisissez cette variable dans le champ Variable name qui s'affiche.

La syntaxe pour appeler une variable est context.VariableName.

Pour plus d'informations concernant les variables, consultez le Guide utilisateur du Studio Talend.

Reference data

Si vous ne souhaitez pas utiliser de variable de contexte représentant les données de référence à utiliser, saisissez ces données de référence directement dans le champ.

Keep the order from the reference

Si les RDD à vérifier sont triés, cochez cette case pour trier vos données de référence.

Advanced settings

When the reference is empty, expect no incoming value

Par défaut, cette case est décochée, ce qui signifie que, lorsqu'un champ est vide dans les données de référence, le test attend un champ également vide dans les ensembles de données entrants en cours de vérification, afin de valider les résultats du test.

Si vous souhaitez que le test n'attende pas de valeur lorsque la référence est vide, cochez cette case.

Utilisation

Règle d'utilisation

Ce composant est utilisé en tant que composant de fin et nécessite un lien d'entrée.

Ce composant est automatiquement ajouté à un scénario de test créé pour afficher les résultats du test dans la console de la vue Run.

Spark Connection

Vous devez utiliser l'onglet Spark Configuration de la vue Run afin de définir la connexion à un cluster Spark donné pour le Job complet. De plus, puisque le Job attend ses fichiers .jar dépendants pour l'exécution, vous devez spécifier le répertoire du système de fichiers dans lequel ces fichiers .jar sont transférés afin que Spark puisse accéder à ces fichiers :
  • Yarn mode : lorsque vous utilisez Google Dataproc, spécifiez un bucket dans le champ Google Storage staging bucket de l'onglet Spark configuration. Lorsque vous utilisez d'autres distributions, utilisez un composant tHDFSConfiguration afin de spécifier le répertoire.

  • Standalone mode : vous devez choisir le composant de configuration selon le système de fichiers que vous utilisez, comme tHDFSConfiguration ou tS3Configuration.

Cette connexion fonctionne uniquement pour le Job dans lequel vous l'avez définie.