Sélectionner le mode Spark - 7.3

Traitement (Processing) (Intégration)

Version
7.3
Language
Français
Product
Talend Big Data
Talend Big Data Platform
Talend Data Fabric
Talend Data Integration
Talend Data Management Platform
Talend Data Services Platform
Talend ESB
Talend MDM Platform
Talend Real-Time Big Data Platform
Module
Studio Talend
Content
Création et développement > Systèmes tiers > Composants Processing (Intégration)
Gouvernance de données > Systèmes tiers > Composants Processing (Intégration)
Qualité et préparation de données > Systèmes tiers > Composants Processing (Intégration)
Last publication date
2024-03-05

Selon le cluster Spark à utiliser, sélectionnez un mode Spark pour votre Job.

La documentation Spark fournit une liste exhaustive des propriétés Spark et de leurs valeurs par défaut dans Spark Configuration. Un Job Spark conçu dans le Studio utilise cette configuration par défaut, sauf pour les propriétés que vous avez explicitement définies dans l'onglet Spark Configuration ou les composants utilisés dans votre Job.

Procédure

  1. Cliquez sur Run pour ouvrir cette vue et cliquez sur l'onglet Spark Configuration pour ouvrir cette vue et configurer la connexion à Spark.
  2. Cochez la case Use local mode pour tester localement votre Job.

    En mode local, le Studio construit l'environnement Spark en lui-même à la volée pour exécuter le Job dedans. Chaque processeur de la machine locale est utilisé comme worker Spark pour effectuer les calculs.

    Dans ce mode, votre système de fichiers local est utilisé. Désactivez les composants de configuration comme le tS3Configuration ou le tHDFSConfiguration fournissant les informations de connexion à un système de fichiers distant, si vous avez placé ces composants dans votre Job.

    Vous pouvez exécuter votre Job sans configuration supplémentaire.

  3. Décochez la case Use local mode pour afficher la liste des distributions Hadoop disponibles et, dans cette liste, sélectionnez la distribution correspondant au cluster Spark cluster à utiliser.
    La distribution peut être :
    • Databricks

    • Qubole

    • Amazon EMR

      Pour cette distribution, Talend supporte les modes :
      • Yarn client

      • Yarn cluster

      Important : Delta Lake n'est pas supporté sur Amazon EMR.
    • Cloudera

      Pour cette distribution, Talend supporte les modes :
      • Standalone

      • Yarn client

      • Yarn cluster

    • Google Cloud Dataproc

      Pour cette distribution, Talend supporte les modes :
      • Yarn client

    • HortonWorks

      Pour cette distribution, Talend supporte les modes :
      • Yarn client

      • Yarn cluster

    • MapR

      Pour cette distribution, Talend supporte les modes :
      • Standalone

      • Yarn client

      • Yarn cluster

    • Microsoft HDInsight

      Pour cette distribution, Talend supporte les modes :
      • Yarn cluster

    • Cloudera Altus

      Pour cette distribution, Talend supporte les modes :
      • Yarn cluster

        Votre cluster Altus doit être exécuté sur les fournisseurs de Cloud suivants :
        • Azure

          Le support pour Altus sur Azure est une fonctionnalité de prévisualisation technique.

        • AWS

    Lorsqu'un Job utilise Avro pour déplacer des données à travers ses composants, il est recommandé de configurer votre cluster pour utiliser Kryo afin de gérer les types Avro. Cela permet non seulement d'éviter ce problème Avro connu mais également d'améliorer les performances. La propriété Spark à configurer dans votre cluster est :
    spark.serializer org.apache.spark.serializer.KryoSerializer

    Si vous ne trouvez pas votre distribution dans la liste déroulante, cela signifie que la distribution à laquelle vous souhaitez vous connecter n'est pas officiellement supportée par Talend . Dans ce cas, vous pouvez sélectionner Custom puis la version de Spark, dans la liste Spark version, du cluster auquel vous connecter. Cliquez sur le bouton [...] pour afficher une boîte de dialogue dans laquelle vous pouvez :

    1. Sélectionner Import from existing version pour importer une distribution de base officiellement supportée et ajouter manuellement les autres Jars requis non fournis par cette distribution.

    2. Sélectionner Import from zip pour importer le fichier .zip de configuration pour la distribution personnalisée à utiliser. Ce fichier .zip doit contenir les bibliothèques des différents éléments Hadoop/Spark et le fichier d'index de ces bibliothèques.

      Notez que les versions personnalisées ne sont pas officiellement supportées par Talend . Talend et sa Communauté fournissent l'opportunité de vous connecter à des versions personnalisées depuis le Studio mais ne peuvent garantir que la configuration de la version choisie sera simple. Il est recommandé de configurer ces connexions si vous avez une expérience suffisante de Hadoop et de Spark pour gérer par vous-mêmes les problèmes pouvant survenir.

    Pour un exemple étape par étape expliquant comment se connecter à une distribution personnalisée et partager cette connexion, consultez Hortonworks.