Exécution de Jobs Big Data Streaming à partir du Big Data Streaming Conductor - 6.5

Talend Administration Center Guide utilisateur

EnrichVersion
6.5
EnrichProdName
Talend Big Data
Talend Big Data Platform
Talend Data Fabric
Talend Data Integration
Talend Data Management Platform
Talend Data Services Platform
Talend ESB
Talend Real-Time Big Data Platform
task
Administration et monitoring
Déploiement
EnrichPlatform
Talend Administration Center

Ce module est utilisé quasiment comme le module Job Conductor. Il est donc recommandé de vous référer à Exécution de Jobs d'intégration de données depuis le Job Conductor afin de découvrir comment utiliser le module Big Data Streaming Conductor. La section courante explique uniquement les différences entre les fonctionnalités du Big Data Streaming Conductor et du Job Conductor :

  1. Ce Conductor est utilisé pour gérer les Jobs Spark Streaming et Storm uniquement.

  2. La fonctionnalité Triggers n'est pas disponible pour le Big Data Streaming Conductor, car, une fois qu'un Job Streaming l'a démarré, il s'exécute en continu et traite chaque message entrant dès qu'il est publié.

  3. Lorsque ce Conductor est utilisé pour gérer un Job Storm, le bouton Monitor dans la page Big Data Streaming Conductor vous dirige vers la console Web Storm UI fournie par le système Storm.

  4. Puisqu'un Topology Storm ne peut être mis en pause ou repris, vous ne pouvez mettre en pause ou reprendre une tâche Storm depuis la page Big Data Streaming Conductor.

  5. Lorsque vous exécutez une tâche Storm depuis la page Big Data Streaming Conductor, le Conductor arrête et supprime tout Topology ayant le même nom que le Topology que vous souhaitez exécuter dans le cluster Storm, puis soumet ce nouveau Topology au cluster. Cette fonctionnalité remplace la manière dont vous avez défini l'exécution du Topology dans l'onglet Storm configuration du Job Storm dans le Studio.

  6. Arrêter une tâche Storm depuis la page Big Data Streaming à l'aide du bouton Kill arrête et supprime le Topology Storm en cours d'exécution dans le cluster Storm. Cette fonctionnalité remplace la manière dont vous avez défini l'arrêt du Topology dans l'onglet Storm configuration du Job Storm dans le Studio.

    Pour plus d'informations concernant l'utilisation de l'onglet Storm configuration, consultez le scénario décrit dans la section du composant tKafkaInput dans le Guide de référence des Composants Talend.

  7. La fonctionnalité JVM parameters n'est pas disponible dans le module Big Data Streaming Conductor.