Propriétés du tCollectAndCheck pour Apache Spark Streaming - Cloud - 8.0

Technique

Version
Cloud
8.0
Language
Français
Product
Talend Big Data
Talend Big Data Platform
Talend Data Fabric
Talend Data Integration
Talend Data Management Platform
Talend Data Services Platform
Talend ESB
Talend MDM Platform
Talend Real-Time Big Data Platform
Module
Studio Talend
Content
Création et développement > Systèmes tiers > Composants Technical
Gouvernance de données > Systèmes tiers > Composants Technical
Qualité et préparation de données > Systèmes tiers > Composants Technical
Last publication date
2024-02-21

Ces propriétés sont utilisées pour configurer le tCollectAndCheck s'exécutant dans le framework de Jobs Spark Streaming.

Le composant tCollectAndCheck Spark Streaming appartient à la famille Technique.

Ce composant est disponible dans Talend Real-Time Big Data Platform et dans Talend Data Fabric.

Basic settings

Configuration

Cochez cette case pour récupérer les informations de connexion et les identifiants depuis un composant de configuration. Cochez cette case pour vérifier le type de données d'entrée suivant :
  • HBase
  • JDBC
  • MySQL
  • Redshift

Dans la liste déroulante qui s'affiche, sélectionnez le composant de configuration duquel vous souhaitez que Spark utilise les détails de configuration pour se connecter à la base de données. Par exemple, si vous souhaitez vérifier des données Snowflake, vous devez sélectionner le composant tSnowflakeConfiguration.

Remarque : Si vous souhaitez récupérer des données depuis S3, vous n'avez pas besoin d'utiliser le tS3Configuration, vous devez uniquement saisir le chemin d'accès complet au fichier dans le champ Path or table name, dans la vue Basic settings.

Type of input

Sélectionnez dans la liste déroulante le type des données d'entrée à vérifier.

Path or table name

Saisissez le chemin d'accès au fichier ou à la table à vérifier, entre guillemets doubles.

Separator

Saisissez un caractère, une chaîne de caractères ou une expression régulière pour séparer les champs des données transférées.

Line separator

Saisissez le séparateur utilisé pour identifier la fin d'une ligne.

Micro batch separator

Saisissez le séparateur utilisé pour identifier la fin d'un micro-batch dans le flux de données.

Use context variable

Si vous avez déjà créé la variable de contexte représentant le fichier de référence à utiliser, cochez cette case et saisissez cette variable dans le champ Variable name qui s'affiche.

La syntaxe pour appeler une variable est context.VariableName.

Pour plus d'informations concernant les variables, consultez Utiliser les contextes et les variables.

Reference data

Si vous ne souhaitez pas utiliser de variable de contexte représentant les données de référence à utiliser, saisissez ces données de référence directement dans le champ.

Keep the order from the reference

Si les RDD à vérifier sont triés, cochez cette case pour trier vos données de référence.

Advanced settings

When the reference is empty, expect no incoming value

Par défaut, cette case est décochée, ce qui signifie que, lorsqu'un champ est vide dans les données de référence, le test attend un champ également vide dans les ensembles de données entrants en cours de vérification, afin de valider les résultats du test.

Si vous souhaitez que le test n'attende pas de valeur lorsque la référence est vide, cochez cette case.

Utilisation

Règle d'utilisation

Ce composant est utilisé en tant que composant de fin et requiert un lien d'entrée.

Ce composant est automatiquement ajouté à un scénario de test créé pour afficher les résultats du test dans la console de la vue Run.

Connexion à Spark

Dans l'onglet Spark Configuration de la vue Run, définissez la connexion à un cluster Spark donné pour le Job complet. De plus, puisque le Job attend ses fichiers .jar dépendants pour l'exécution, vous devez spécifier le répertoire du système de fichiers dans lequel ces fichiers .jar sont transférés afin que Spark puisse accéder à ces fichiers :
  • Yarn mode (Yarn Client ou Yarn Cluster) :
    • Lorsque vous utilisez Google Dataproc, spécifiez un bucket dans le champ Google Storage staging bucket de l'onglet Spark configuration.

    • Lorsque vous utilisez HDInsight, spécifiez le blob à utiliser pour le déploiement du Job, dans la zone Windows Azure Storage configuration de l'onglet Spark configuration.

    • Lorsque vous utilisez Altus, spécifiez le bucket S3 ou le stockage Azure Data Lake Storage (aperçu technique) pour le déploiement du Job, dans l'onglet Spark configuration.
    • Lorsque vous utilisez des distributions sur site (on-premises), utilisez le composant de configuration correspondant au système de fichiers utilisé par votre cluster. Généralement, ce système est HDFS et vous devez utiliser le tHDFSConfiguration.

  • Standalone mode : utilisez le composant de configuration correspondant au système de fichiers que votre cluster utilise, comme le tHDFSConfiguration Apache Spark Batch ou le tS3Configuration Apache Spark Batch.

    Si vous utilisez Databricks sans composant de configuration dans votre Job, vos données métier sont écrites directement dans DBFS (Databricks Filesystem).

Cette connexion fonctionne uniquement pour le Job dans lequel vous l'avez définie.