Concevoir le flux de données du Job Kudu - Cloud - 8.0

Kudu

Version
Cloud
8.0
Language
Français
Product
Talend Big Data
Talend Big Data Platform
Talend Data Fabric
Talend Data Integration
Talend Data Management Platform
Talend Data Services Platform
Talend ESB
Talend MDM Platform
Talend Real-Time Big Data Platform
Module
Studio Talend
Content
Création et développement > Systèmes tiers > Composants Database (Intégration) > Composants Kudu
Gouvernance de données > Systèmes tiers > Composants Database (Intégration) > Composants Kudu
Qualité et préparation de données > Systèmes tiers > Composants Database (Intégration) > Composants Kudu
Last publication date
2024-02-21

Procédure

  1. Dans la perspective Integration du Studio Talend, créez un Job Spark Batch vide, à partir du nœud Job Designs, dans la vue Repository.
    Pour plus d'informations concernant la création d'un Job Spark Batch, consultez .
  2. Dans l'espace de modélisation, saisissez le nom du composant à utiliser et sélectionnez ce composant dans la liste qui apparaît. Dans ce scénario, les composants sont : un tHDFSConfiguration, un tKuduConfiguration, un tFixedFlowInput, un tKuduOutput, tKuduInput et un tLogRow.
    Le composant tFixedFlowInput est utilisé pour charger les données d'exemple dans le flux de données. Dans un scénario réel, vous pouvez utiliser d'autres composants, comme le tFileInputDelimited, seul ou avec un tMap, à la place du tFixedFlowInput, afin de construire un processus sophistiqué pour préparer vos données au traitement.
  3. Reliez le tFixedFlowInput au tKuduOutput à l'aide d'un lien Row > Main.
  4. Reliez le tMongoDBInput au tLogRow à l'aide d'un lien Row > Main.
  5. Reliez le tFixedFlowInput au tMongoDBInput à l'aide d'un lien Trigger > OnSubjobOk.
  6. Laissez les composants tHDFSConfiguration et tKuduConfiguration sans lien.