Famille du composant |
ElasticSearch | |
Nodes |
Saisissez l'emplacement du cluster hébergeant le système Elasticsearch à utiliser. | |
Use SSL/TLS |
Cochez cette case pour activer la connexion cryptée SSL ou TLS. Utilisez le composant tSetKeystore dans le même Job afin de spécifier les informations d'authentification. Pour plus d'informations concernant le tSetKeystore, consultez tSetKeystore. | |
User authentication |
Si le système ElasticSearch à utiliser requiert des informations d'authentification, cochez la case et saisissez ces informations. | |
Configuration |
Ajoutez les paramètres acceptés par ElasticSearch pour effectuer plus d'actions personnalisées. Par exemple, saisissez es.mapping.id dans la colonne Key et true dans la colonne Value pour que l'ID du document soit contenu dans le nom de la propriété ou du champ. Notez que vous devez saisir des guillemets doubles autour des informations saisies. Pour la liste des paramètres que vous pouvez utiliser, consultez https://www.elastic.co/guide/en/elasticsearch/hadoop/master/configuration.html (en anglais). | |
Utilisation dans des Jobs Spark Batch |
Dans un Job Talend Spark Batch, ce composant est utilisé en standalone. Il génère du code Spark natif qui peut être exécuté directement dans un cluster Spark. Déposez un tElasticSearchConfiguration avec le sous-job relatif à ElasticSearch à exécuter, afin que la configuration soit utilisée par le Job complet lors de l'exécution. Ce composant, ainsi que la Palette Spark Batch à laquelle il appartient, ne s'affiche que lorsque vous créez un Job Spark Batch. Notez que, dans cette documentation, sauf mention contraire, un scénario présente uniquement des Jobs Standard, c'est-à-dire des Jobs Talend traditionnels d'intégration de données. | |
Log4j |
Si vous utilisez une solution Talend soumise à souscription, l'activité de ce composant peut être journalisée avec la fonctionnalité log4j. Pour plus d'informations sur cette fonctionnalité, consultez le Guide utilisateur du Studio Talend. Pour plus d'informations sur les niveaux de logs du log4j, consultez la documentation d'Apache : http://logging.apache.org/log4j/1.2/apidocs/org/apache/log4j/Level.html (en anglais). | |
Spark Connection |
Vous devez utiliser l'onglet Spark Configuration de la vue Run afin de définir la connexion à un cluster Spark donné pour le Job complet. De plus, puisque le Job attend ses fichiers .jar dépendants pour l'exécution, un (et un seul) composant relatif à un système de fichiers de la famille Storage est requis au sein du même Job, afin que Spark puisse utiliser ce composant pour se connecter au système de fichiers auquel les fichiers .jar dépendants du Job sont transférés :
Cette connexion fonctionne uniquement pour le Job dans lequel vous l'avez définie. |