Convertir des Jobs - Cloud - 8.0

Guide d'utilisation du Studio Talend

Version
Cloud
8.0
Language
Français
Product
Talend Big Data
Talend Big Data Platform
Talend Cloud
Talend Data Fabric
Talend Data Integration
Talend Data Management Platform
Talend Data Services Platform
Talend ESB
Talend MDM Platform
Talend Real-Time Big Data Platform
Module
Studio Talend
Content
Création et développement
Last publication date
2024-03-06
Disponible dans...

Big Data

Big Data Platform

Cloud Big Data

Cloud Big Data Platform

Cloud Data Fabric

Data Fabric

Real-Time Big Data Platform

Vous pouvez créer un Job en le convertissant depuis un framework différent, par exemple depuis Standard vers Spark.

Cette option est recommandée si les composants utilisés dans un Job source sont également disponibles pour le Job cible. Par exemple, si vous devez convertir un Job Standard en un Job Spark Batch.

Procédure

  1. Cliquez-droit sur le Job Standard à convertir et, dans le menu contextuel, sélectionnez Edit properties. La fenêtre Edit properties s'ouvre.
  2. Modifiez les informations du Job, si nécessaire.
    Si vous devez modifier des informations contenues dans les champs en lecture seule, utilisez l'assistant [Project settings] pour effectuer ces modifications. Pour plus d'informations, consultez Personnalisation des paramètres du projet.

    Exemple

    Boîte de dialogue Edit Properties (Modifier les propriétés).
  3. Dans la liste Job Type, sélectionnez Big Data Batch puis, dans la liste Framework, sélectionnez Spark. Cliquez sur le bouton Finish pour fermer la fenêtre.

Résultats

Le Job converti s'affiche sous le nœud Big Data Batch.

Vous pouvez également sélectionner l'option Duplicate dans le menu contextuel pour accéder à la conversion ; cette approche vous permet de conserver le Job source avec son framework original et en crée un doublon dans le framework cible.

Boîte de dialogue Duplicate (Dupliquer).

Vous pouvez également reproduire cette procédure pour convertir un Job Spark en un Job standard ou vers d'autres frameworks. Pour ce faire, sélectionnez l'option Edit Big Data Batch properties dans le menu contextuel.

Dans un Job standard, si vous utilisez une connexion à Hadoop précédemment définie dans le référentiel et que vous cliquez sur le bouton Finish, l'assistant [Select node] s'ouvre et vous permet de sélectionner cette connexion ainsi que de la réutiliser automatiquement dans le Job Spark à créer.

Chaque composant apparaissant dans l'assistant est utilisé par le Job source standard. En le sélectionnant, vous réutilisez les métadonnées de connexion Hadoop qu'il contient dans le Job Spark que vous créez.