Glossaire - 6.2

Talend Big Data Guide de prise en main

EnrichVersion
6.2
EnrichProdName
Talend Big Data
task
Création et développement
Déploiement
Installation et mise à niveau
EnrichPlatform
Studio Talend
Talend Administration Center
Talend CommandLine
Talend Installer
Talend Runtime

Lorsque vous travaillez avec le Studio Talend et afin de comprendre son mécanisme fonctionnel, il est important de comprendre le vocabulaire de base.

composant

Un composant, component en anglais, est une partie exécutable d'un Job ou d'une Route utilisé pour se connecter à une source externe ou exécuter une opération d'intégration de données spécifique, quel que soit le type de données que vous souhaitez intégrer (bases de données, applications, fichiers plats, services Web, etc.). Un composant permet d'éviter le plus possible le codage manuel nécessaire au traitement des données provenant de sources multiples et hétérogènes.

Les composants sont regroupés dans des familles en fonction de leur utilisation et apparaissent dans la Palette de la perspective Integration du Studio Talend.

Pour plus d'informations concernant les différents types de composants et leurs utilisations, consultez le Guide de référence des Composants Talend.

élément

Les éléments, item en anglais, sont les unités techniques constituant un projet. Ces éléments sont regroupés en fonction de leur type : Job Design,Business Model, Context, Code, Metadata, etc. Un élément peut comprendre plusieurs autres éléments. Ainsi, les Business Models et les Jobs que vous créez sont des éléments, tout comme les métadonnées et les contextes que vous utilisez dans les Jobs.

Job

Un Job est un concept graphique, composé d'un ou plusieurs composants reliés entre eux. Il vous permet de mettre en place des processus opérationnels de gestion des flux. Il traduit des besoins métier en code, routines et programmes. Les Jobs utilisent les différentes sources et cibles nécessaires aux processus d'intégration de données ou tout autre processus lié.

metadata

Les métadonnées sont des informations décrivant les caractéristiques d'un objet de données, comme son nom, son type, son emplacement, son auteur, sa date de création, sa taille, etc, ainsi que ses relations avec d'autres objets de données que l'entreprise doit gérer ou qu'un outil informatique gère. Les métadonnées peuvent être créées manuellement ou automatiquement par un système.

projet

Un projet est un ensemble structuré d'éléments et de leurs métadonnées associées. Ce qui signifie que tous les Jobs et Business Models que vous créez sont organisés en Projets.

Vous pouvez créer autant de projets que vous le souhaitez dans un référentiel.

référentiel

Un référentiel, repository en anglais, est un espace de stockage utilisé par le Studio Talend pour regrouper toutes les données liées aux éléments techniques utilisés soit pour décrire les Business Models, soit pour créer les Jobs.

workspace

Un répertoire workspace est un répertoire dans lequel sont stockés tous les dossiers de vos projets. Vous devez avoir un répertoire workspace par connexion (connexion au référentiel). Le Studio Talend vous permet de vous connecter à différents répertoires workspace, si vous ne souhaitez pas utiliser celui créé par défaut.

Termes pour le Big Data de Talend

Job Big Data Batch

Un Job Big Data Batch peut être un Job MapReduce Talend ou un Job Spark Talend, selon le framework que vous utilisez lors de la création du Job.

Ce type de Job est disponible lorsque vous avez souscrit à l'une des solutions Big Data de Talend.

Job Big Data Streaming

Un Job Big Data Streaming peut être un Job Spark Streaming Talend ou un Job Storm Talend, selon le framework que vous utilisez lors de la création du Job.

Le composant de ce framework est disponible si vous avez souscrit à Talend Real-time Big Data Platform ou Talend Data Fabric.

Job Standard

Un Job standard Talend est un Job d'intégration de données Talend exécutant un processus ELT ou ETL classique.

Métadonnées du Cluster Hadoop

Une métadonnée du cluster Hadoop contient des informations décrivant les caractéristiques d'une connexion à un cluster Hadoop donné.

Job Spark

Un Job Spark est un Job Talend s'exécutant sur Spark pour créer et traiter des RDD.

Job MapReduce

Un Job MapReduce est un Job Talend s'exécutant sur le framework MapReduce. Le nombre de Mappers et de Reducers que génère un Job MapReduce dépend de la manière dont vous créez ce Job MapReduce.