Configurer une connexion HDFS pour exécution sur Spark
Grâce au composant tHDFSConfiguration, vous pouvez connecter votre système de fichiers HDFS à Spark.
Avant de commencer
- Ce tutoriel utilise un cluster Hadoop. Vous devez avoir un cluster Hadoop disponible.
- Vous avez également configuré une métadonnée HDFS (consultez Créer une définition de métadonnée de cluster Hadoop et Importer une définition de métadonnée de cluster Hadoop).
Procédure
-
Dans le Repository, développez , puis la métadonnée du cluster Hadoop de votre choix.
- Cliquez sur OK.