Ces propriétés sont utilisées pour configurer le tCollectAndCheck s'exécutant dans le framework de Jobs Spark Batch.
Le composant tCollectAndCheck Spark Batch appartient à la famille Technique.
Le composant de ce framework est disponible dans tous les produits Talend avec Big Data nécessitant une souscription et dans Talend Data Fabric.
Basic settings
Separator |
Saisissez un caractère, une chaîne de caractères ou une expression régulière pour séparer les champs des données transférées. |
Line separator |
Saisissez le séparateur utilisé pour identifier la fin d'une ligne. |
Use context variable |
Si vous avez déjà créé la variable de contexte représentant le fichier de référence à utiliser, cochez cette case et saisissez cette variable dans le champ Variable name qui s'affiche. La syntaxe pour appeler une variable est context.VariableName. Pour plus d'informations concernant les variables, consultez le Guide utilisateur du Studio Talend . |
Reference data |
Si vous ne souhaitez pas utiliser de variable de contexte représentant les données de référence à utiliser, saisissez ces données de référence directement dans le champ. |
Keep the order from the reference |
Si les RDD à vérifier sont triés, cochez cette case pour trier vos données de référence. |
Advanced settings
When the reference is empty, expect no incoming value |
Par défaut, cette case est décochée, ce qui signifie que, lorsqu'un champ est vide dans les données de référence, le test attend un champ également vide dans les ensembles de données entrants en cours de vérification, afin de valider les résultats du test. Si vous souhaitez que le test n'attende pas de valeur lorsque la référence est vide, cochez cette case. |
Utilisation
Règle d'utilisation |
Ce composant est utilisé en tant que composant de fin et requiert un lien d'entrée. Ce composant est automatiquement ajouté à un scénario de test créé pour afficher les résultats du test dans la console de la vue Run. |
Connexion à Spark |
Dans l'onglet Spark Configuration de la vue Run, définissez la connexion à un cluster Spark donné pour le Job complet. De plus, puisque le Job attend ses fichiers .jar dépendants pour l'exécution, vous devez spécifier le répertoire du système de fichiers dans lequel ces fichiers .jar sont transférés afin que Spark puisse accéder à ces fichiers :
Cette connexion fonctionne uniquement pour le Job dans lequel vous l'avez définie. |