Propriétés du tKafkaOutput Standard - 7.0

Kafka

author
Talend Documentation Team
EnrichVersion
7.0
EnrichProdName
Talend Big Data
Talend Big Data Platform
Talend Data Fabric
Talend Open Studio for Big Data
Talend Real-Time Big Data Platform
task
Création et développement > Systèmes tiers > Composants Messaging (Intégration) > Composants Kafka
Gouvernance de données > Systèmes tiers > Composants Messaging (Intégration) > Composants Kafka
Qualité et préparation de données > Systèmes tiers > Composants Messaging (Intégration) > Composants Kafka
EnrichPlatform
Studio Talend

Ces propriétés sont utilisées pour configurer le tKafkaOutput s'exécutant dans le framework de Jobs Standard.

Le composant tKafkaOutput Standard appartient à la famille Internet.

Le composant de ce framework est disponible dans tous les produits Talend Platform avec Big Data et dans Talend Data Fabric.

Basic settings

Schema et Edit schema

Un schéma est une description de lignes, il définit le nombre de champs qui sont traités et passés au composant suivant. Il définit le nombre de champs (colonnes) à traiter et à passer au composant suivant. Lorsque vous créez un Job Spark, évitez le mot réservé line lors du nommage des champs.

Notez que le schéma de ce composant est en lecture seule. Il stocke les messages à publier.

Use an existing connection

Cochez cette case et sélectionnez le composant de connexion adéquat dans la liste Component list pour réutiliser les paramètres d'une connexion que vous avez déjà définie.

Version

Sélectionnez la version du cluster Kafka à utiliser.

Broker list

Saisissez les adresses des nœuds du broker du cluster Kafka à utiliser.

L'adresse doit se présenter sous la forme suivante : hostname:port. Ces informations contiennent le nom et le port du nœud hébergeant dans le cluster Kafka.

Si vous devez spécifier plusieurs adresses, séparez-les à l'aide d'une virgule (,).

Topic name

Saisissez le nom du topic dans lequel vous souhaitez publier des messages. Ce topic doit déjà exister.

Compress the data

Cochez la case Compress the data afin de compresser les données de sortie.

Use SSL/TLS

Cochez cette case pour activer la connexion chiffrée SSL ou TLS.

Utilisez le composant tSetKeystore dans le même Job afin de spécifier les informations de chiffrement.

Pour plus d'informations concernant le tSetKeystore, consultez tSetKeystore.

Cette case est disponible depuis Kafka 0.9.0.1.

Use Kerberos authentication

Si le cluster Kafka à utiliser est sécurisé par Kerberos, cochez cette case pour afficher les paramètres associés à définir :

  • JAAS configuration path : saisissez le chemin d'accès ou parcourez votre système jusqu'au fichier de configuration JAAS à utiliser par le Job pour authentification en tant que client à Kafka.

    Le fichier JAAS décrit comment les clients, les Jobs Kafka en termes Talend peuvent se connecter aux nœuds du broker Kafka, en utilisant soit le mode kinit, soit le mode keytab. Il doit être stocké sur la machine où sont exécutés les Jobs.

    Talend , Kerberos ou Kafka ne fournissent pas ce fichier JAAS. Vous devez le créer en suivant les explications dans Configuring Kafka client (en anglais), selon la stratégie de sécurité de votre entreprise.

  • Kafka brokers principal name : saisissez le membre primaire du Principal Kerberos défini pour les brokers lorsque vous avez créé le cluster de brokers. Par exemple, dans ce Principal kafka/kafka1.hostname.com@EXAMPLE.COM, le membre primaire à utiliser pour renseigner ce champ est kafka.

  • Set kinit command path : Kerberos utilise un chemin par défaut pour son exécutable kinit. Si vous avez modifié ce chemin, cochez cette case et saisissez votre chemin d'accès personnalisé.

    Si vous laissez cette case décochée, le chemin par défaut est utilisé.

  • Set Kerberos configuration path : Kerberos utilise un chemin par défaut vers son fichier de configuration, le fichier krb5.conf (ou krb5.ini sous Windows) pour Kerberos 5 par exemple. Si vous avez modifié ce chemin, cochez cette case et saisissez le chemin d'accès personnalisé au fichier de configuration Kerberos.

    Si vous laissez cette case décochée, une stratégie donnée est appliquée par Kerberos pour tenter de trouver les informations de configuration nécessaires. Pour plus d'informations concernant cette stratégie, consultez la section Locating the krb5.conf Configuration File dans Kerberos requirements (en anglais).

Pour plus d'informations concernant la manière dont est sécurisé un cluster Kafka via Kerberos, consultez Authenticating using SASL (en anglais).

Cette case est disponible depuis Kafka 0.9.0.1.

Advanced settings

Kafka properties

Ajoutez dans cette table les nouvelles propriétés producteur Kafka à personnaliser.

Pour plus d'informations concernant les nouvelles propriétés producteur que vous pouvez définir dans cette table, consultez la section décrivant la nouvelle configuration producteur dans la documentation Kafka à l'adresse http://kafka.apache.org/documentation.html#newproducerconfigs (en anglais).

tStatCatcher Statistics

Cochez cette case pour collecter les métadonnées de traitement au niveau du Job ainsi qu'au niveau de chaque composant.

Utilisation

Règle d'utilisation

Ce composant est un composant de fin. Il nécessite un composant tJavaRow ou tJava pour transformer les données entrantes en tableaux d'octets sérialisés.

L'exemple suivant vous montre comment construire une instruction pour effectuer cette transformation :

output_row.serializedValue = input_row.users.getBytes();

Dans ce code, la variable output_row représente le schéma des données à écrire en sortie dans le tKafkaOutput et output_row.serializedValue la colonne en lecture seule de ce schéma. La variable input_row représente le schéma des données entrantes et input_row.users la colonne d'entrée nommée users à transformer en tableau d'octets via la méthode getBytes().