Avertissement
La version Streaming de ce composant est disponible dans la Palette du studio si vous avez souscrit à Talend Real-time Big Data Platform ou Talend Data Fabric.
Famille du composant |
Databases/Teradata | |
Basic settings |
Property type |
Peut être Built-in ou Repository. - Built-in : Propriétés utilisées ponctuellement. - Repository : Sélectionnez le fichier dans lequel sont stockées les propriétés du composant. |
|
Host |
Saisissez l'adresse IP du serveur de la base de données. |
|
Database |
Saisissez le nom de la base de données à utiliser. |
|
Username et Password |
Saisissez les données d'authentification de l'utilisateur de la base de données. Pour saisir le mot de passe, cliquez sur le bouton [...] à côté du champ Password, puis, dans la boîte de dialogue qui s'ouvre, saisissez le mot de passe entre guillemets doubles, puis cliquez sur OK afin de sauvegarder les paramètres. |
|
Additional JDBC parameters |
Spécifiez les propriétés supplémentaires pour la connexion à la base de données que vous créez. Par exemple, vous pouvez saisir CHARSET=KANJISJIS_OS pour obtenir le support des caractères japonais. NoteVous pouvez configurer les paramètres d'encodage via ce champ. |
Advanced settings | Connection pool | Dans cette zone, configurez le pool de connexions utilisé pour contrôler le nombre de connexions qui restent ouvertes simultanément. Généralement, les valeurs par défaut données aux paramètres suivants du pool de connexion conviennent à la plupart des cas d'utilisation.
|
Evict connections | Cochez cette case pour définir les critères de destruction de connexions dans le pool de connexions. Les champs suivants sont affichés une fois la case cochée.
| |
Utilisation dans des Jobs Spark Streaming |
Dans un Job Talend Spark Streaming, ce composant est utilisé en standalone. Il génère en natif du code Spark pouvant être exécuté directement dans un cluster Spark. Déposez le tTeradataConfiguration avec les sous-job Teradata à exécuter dans le même Job, afin que la configuration soit utilisée par le Job complet lors de l'exécution. Ce composant, ainsi que les composants Spark Streaming de la Palette à laquelle il appartient, s'affichent uniquement lorsque vous créez un Job Spark Streaming. Notez que, dans cette documentation, sauf mention contraire , un scénario présente uniquement des Jobs de type Standard, c'est-à-dire des Jobs Talend traditionnels d'intégration de données. | |
Log4j |
Si vous utilisez une solution Talend soumise à souscription, l'activité de ce composant peut être journalisée avec la fonctionnalité log4j. Pour plus d'informations sur cette fonctionnalité, consultez le Guide utilisateur du Studio Talend. Pour plus d'informations sur les niveaux de logs du log4j, consultez la documentation d'Apache : http://logging.apache.org/log4j/1.2/apidocs/org/apache/log4j/Level.html (en anglais). | |
Spark Connection |
Vous devez utiliser l'onglet Spark Configuration de la vue Run afin de définir la connexion à un cluster Spark donné pour le Job complet. De plus, puisque le Job attend ses fichiers .jar dépendants pour l'exécution, un (et un seul) composant relatif à un système de fichiers de la famille Storage est requis au sein du même Job, afin que Spark puisse utiliser ce composant pour se connecter au système de fichiers auquel les fichiers .jar dépendants du Job sont transférés :
Cette connexion fonctionne uniquement pour le Job dans lequel vous l'avez définie. | |
Limitation |
Du fait d'une incompatibilité de licence, un ou plusieurs Jar requis pour utiliser ce composant ne sont pas fournis. Vous pouvez installer les Jar manquants pour ce composant en cliquant sur le bouton Install dans l'onglet Component. Vous pouvez également trouver les Jar manquants et les ajouter dans l'onglet Modules de la perspective Integration de votre studio. Pour plus d'informations, consultez la page https://help.talend.com/display/KB/How+to+install+external+modules+in+the+Talend+products (en anglais) ou la section décrivant comment configurer le studio, dans le Guide d'installation Talend. |