Procédure
-
Dans la perspective Integration du Studio, créez deux Jobs Standards vides à partir du nœud Job Designs dans la vue Repository.
-
Dans l'espace de modélisation graphique, saisissez le nom du composant à utiliser et sélectionnez ce composant dans la liste qui s'affiche. Dans ce scénario, les composants sont : un tKafkaInput, un tJavaRow et un tLogRow pour le Job de lecture et un tFixedFlowInput, untJavaRow et untKafkaOutput pour le Job d'écriture.
Le composant tFixedFlowInput est utilisé pour charger les données d'exemple dans le flux de données. Dans un scénario réel, vous pouvez utiliser d'autres composants, comme le tFileInputDelimited, seul ou avec un tMap, à la place du tFixedFlowInput, afin de construire un processus sophistiqué pour préparer vos données au traitement.
-
Pour le Job de lecture, reliez le tKafkaInput au tJavaRow et reliez le tJavaRow au tLogRow à l'aide d'un lien Row > Main.
-
Pour le Job d'écriture, reliez le tFixedFlowInput au tJavaRow et reliez le tJavaRow au tKafkaOutput à l'aide d'un lien Row > Main.
Résultats
Les Jobs de lecture et d'écriture sont configurés.