Accéder au contenu principal Passer au contenu complémentaire

Créer un Job Spark Batch

Un Job Talend pour Apache Spark Batch vous permet d'accéder aux et d'utiliser les composants Spark du Talend afin de concevoir graphiquement des programmes Apache Spark pour lire, transformer ou écrire des données.

Avant de commencer

  • Vous avez démarré votre Studio Talend et ouvert la perspective Integration .

Procédure

  1. Dans la vue Repository, développez le nœud Job Designs, cliquez-droit sur le nœud Big Data Batch et sélectionnez Create folder dans le menu contextuel.
  2. Dans l'assistant New Folder, nommez le dossier de Jobs getting_started, puis cliquez sur Finish pour créer le dossier.
  3. Cliquez-droit sur le dossier getting_started et sélectionnez à nouveau Create folder.
  4. Dans l'assistant New Folder, nommez le nouveau dossier spark et cliquez sur Finish pour le créer.
  5. Cliquez-droit sur le dossier spark et sélectionnez Create Big Data Batch Job.
  6. Dans l'assistant New Big Data Batch Job, sélectionnez Spark dans la liste déroulante Framework.
  7. Saisissez un nom pour ce Job Spark Batch et toute autre information utile.

    Par exemple, saisissez aggregate_movie_director_spark dans le champ Name.

Résultats

Le composant Spark Batch Palette est désormais disponible dans le Studio. Vous pouvez commencer à concevoir le Job en utilisant cette Palette et le nœud Metadata dans le Repository.

Cette page vous a-t-elle aidé ?

Si vous rencontrez des problèmes sur cette page ou dans son contenu – une faute de frappe, une étape manquante ou une erreur technique – dites-nous comment nous améliorer !