Écrire et lire des données depuis Cloudera Kudu à l'aide d'un Job Spark Batch - Cloud - 8.0

Kudu

Version
Cloud
8.0
Language
Français
Product
Talend Big Data
Talend Big Data Platform
Talend Data Fabric
Talend Data Integration
Talend Data Management Platform
Talend Data Services Platform
Talend ESB
Talend MDM Platform
Talend Real-Time Big Data Platform
Module
Studio Talend
Content
Création et développement > Systèmes tiers > Composants Database (Intégration) > Composants Kudu
Gouvernance de données > Systèmes tiers > Composants Database (Intégration) > Composants Kudu
Qualité et préparation de données > Systèmes tiers > Composants Database (Intégration) > Composants Kudu
Last publication date
2024-02-21

Dans ce scénario, vous allez créer un Job Spark Batch utilisant les composants Kudu pour partitionner et écrire de données dans une table Kudu, puis lire certaines de ces données depuis Kudu.

Ce scénario s'applique uniquement aux produits Talend avec Big Data nécessitant souscription.

Pour plus de technologies supportées par Talend, consultez Composants Talend.

L'échantillon de données utilisé est le suivant :
01;ychen;30
02;john;40
03;yoko;20
04;tom;60
05;martin;50

Ces données contiennent les noms de plusieurs personnes, leur âge et des ID distribués entre ces personnes.

Les âges sont distincts les uns des autres, car cette colonne est la colonne de clé primaire et est utilisée pour effectuer le partitionnement dans ce scénario.

Notez que les données d'exemple sont créées à des fins de démonstration uniquement.

Prérequis :
  • Assurez-vous que le cluster Spark et la base de données Cloudera Kudu à utiliser ont bien été installés et sont en cours de fonctionnement.

  • Vérifiez que la machine cliente sur laquelle les Jobs Talend sont exécutés peut reconnaître les noms d'hôtes des nœuds du cluster Hadoop à utiliser. Dans cet objectif, ajoutez les mappings des entrées adresse IP/nom d'hôte pour les services de ce cluster Hadoop dans le fichier hosts de la machine cliente.

    Par exemple, si le nom d'hôte du serveur du NameNode Hadoop est talend-cdh550.weave.local et son adresse IP est 192.168.x.x, l'entrée du mapping est la suivante 192.168.x.x talend-cdh550.weave.local.

  • Si le cluster à utiliser est sécurisé avec Kerberos, assurez-vous d'avoir correctement installé et configuré Kerberos sur la machine sur laquelle votre Job Talend est exécuté. Selon le mode de Kerberos utilisé, le ticket Kinit ou le Keytab Kerberos doit être disponible sur la machine.

    Pour plus d'informations, recherchez comment utiliser Kerberos dans le Studio Talend avec Big Data sur Talend Help Center.

Recommandation :
  • Définissez la métadonnée de connexion à Hadoop depuis le nœud Hadoop cluster du Repository. Ainsi, vous pourrez réutiliser cette connexion dans différents Jobs, mais aussi vous assurer que la connexion à votre cluster Hadoop a bien été configurée et fonctionne correctement lorsque vous l'utilisez dans vos Jobs.

    Pour plus d'informations concernant la création d'une connexion à Hadoop réutilisable, consultez Gérer les métadonnées Hadoop.