Propriétés du tELTHiveInput Standard - Cloud - 8.0

ELT Hive

Version
Cloud
8.0
Language
Français
Product
Talend Big Data
Talend Big Data Platform
Talend Data Fabric
Talend Data Integration
Talend Data Management Platform
Talend Data Services Platform
Talend ESB
Talend MDM Platform
Talend Real-Time Big Data Platform
Module
Studio Talend
Content
Création et développement > Systèmes tiers > Composants ELT > Composants ELT Hive
Gouvernance de données > Systèmes tiers > Composants ELT > Composants ELT Hive
Qualité et préparation de données > Systèmes tiers > Composants ELT > Composants ELT Hive
Last publication date
2024-02-21

Ces propriétés sont utilisées pour configurer le tELTHiveInput s'exécutant dans le framework de Jobs Standard.

Le composant tELTHiveInput Standard appartient à la famille ELT.

Le composant de ce framework est disponible dans tous les produits Talend avec Big Data et dans Talend Data Fabric.

Basic settings

Schema

Un schéma est une description de lignes. Il définit le nombre de champs qui sont traités et passés au composant suivant. Le schéma est soit local (Built-in), soit distant dans le Repository.

 

Built-in : le schéma est créé et conservé localement pour ce composant seulement.

Repository : le schéma existe déjà et est stocké dans le Repository. Ainsi, il peut être réutilisé dans des Jobs et projets.

Modifier le schéma

Créez le schéma en cliquant sur le bouton Edit Schema. Si le schéma est en mode Repository, trois options sont disponibles :

  • View schema : sélectionnez cette option afin de voir uniquement le schéma.

  • Change to built-in property : sélectionnez cette option pour passer le schéma en mode Built-In et effectuer des modifications locales.

  • Update repository connection : sélectionnez cette option afin de modifier le schéma stocké dans le référentiel et décider de propager ou non les modifications à tous les Jobs.

    Si vous souhaitez propager les modifications uniquement au Job courant, cliquez sur No et sélectionnez à nouveau la métadonnée du schéma dans la fenêtre Repository Content.

Default table name

Saisissez le nom de la table d'entrée à utiliser.

Default schema name

Saisissez le nom du schéma de base de données auquel la table d'entrée utilisée est liée.

Advanced settings

tStat Catcher Statistics

Cochez cette case afin de collecter les données au niveau du composant.

Variables globales

Variables globales

ERROR_MESSAGE : message d'erreur généré par le composant lorsqu'une erreur survient. Cette variable est une variable After et retourne une chaîne de caractères. Cette variable fonctionne uniquement si la case Die on error est décochée, lorsque le composant contient cette case.

Une variable Flow fonctionne durant l'exécution d'un composant. Une variable After fonctionne après l'exécution d'un composant.

Pour renseigner un champ ou une expression à l'aide d'une variable, appuyez sur les touches Ctrl+Espace pour accéder à la liste des variables. À partir de cette liste, vous pouvez choisir la variable que vous souhaitez utiliser.

Pour plus d'informations concernant les variables, consultez Utiliser les contextes et les variables.

Utilisation

Règle d'utilisation

L'utilisation du tELTHiveMap est étroitement liée à celle des composants tELTHiveInput et tELTHiveOutput. Notez que le lien de sortie (output) à utiliser avec ces deux composants doit respecter strictement la syntaxe du nom de la table.

Si le Studio Talend utilisé pour vous connecter à une base de données Hive fonctionne sous Windows, vous devez créer manuellement un dossier appelé tmp à la racine du disque où le Studio Talend est installé.

Remarque :

Les composants ELT ne traitent pas le flux de données lui-même mais uniquement les informations du schéma.

Utilisation avec Dataproc

Les composants ELT Hive nécessitent l'installation de Tez dans le cluster Google Cloud Dataproc à utiliser.

  • Utilisez l'action d'initialisation comme expliqué dans la documentation Google Cloud Platform : Apache Tez on Dataproc (en anglais).

  • Pour plus d'informations concernant le concept général d'actions d'initialisation dans un cluster Google Cloud Dataproc, consultez la documentation Google relative : Initialization actions (en anglais).