Fonctionnalités de Studio Talend - 8.0

Guide d'utilisation de Talend Big Data Platform Studio

Version
8.0
Language
Français (France)
EnrichDitaval
Big Data Platform
Product
Talend Big Data Platform
Module
Studio Talend
Content
Création et développement
Cette section fournit une liste des fonctionnalités principales installées par défaut, ainsi qu'une liste des fonctionnalités devant être installées via le Gestionnaire des fonctionnalités.

Fonctionnalités principales installées par défaut

Fonctionnalité Description
Éditeur de Jobs d'intégration de données L'éditeur de Jobs d'intégration de données est l'espace de travail dans lequel vous pouvez concevoir vos Jobs.
Composants d'intégration de données Un composant est un élément fonctionnel effectuant une opération d'intégration de données unique dans un Job. Seuls certains composants d'intégration de données simples sont installés par défaut.
Contextes Cette fonctionnalité vous permet de gérer les Jobs différemment selon les types d'exécution, par exemple dans des environnements de test ou de production.
Routines Une routine est une classe Java avec de nombreuses fonctions. Elle est généralement utilisée pour factoriser du code.
Modèles SQL Le Studio Talend fournit un éventail de modèles SQL permettant de simplifier les tâches les plus simples de requête et de mise à jour des données, de création et modification de schémas ou encore de contrôle des accès aux données. Il comprend également un éditeur SQL vous permettant de personnaliser ou de créer vos propres modèles SQL, afin de répondre à vos besoins.
Métadonnées pour les bases de données, les fichiers, les schémas génériques, etc. L'assistant de métadonnées vous permet de stocker des informations réutilisables sur les bases de données, les fichiers, et/ou les systèmes dans l'arborescence Repository. Ces informations pourront être réutilisées ultérieurement pour configurer les paramètres de connexion des composants d'entrée ou de sortie, et le schéma de données, de façon centralisée.
Git support (Support de Git) Cette fonctionnalité vous permet de travailler sur des projets distants stockés sur des dépôts Git.
Remote execution (Exécution à distance) Cette fonctionnalité vous permet de déployer et d'exécuter vos Jobs sur un JobServer à distance, que vous travailliez sur un projet local ou un projet à distance, à condition que vous soyez connecté·e à Talend Administration Center.
Talend Administration Center Connexion Cette fonctionnalité vous permet de configurer une connexion à Talend Administration Center.

Fonctionnalités optionnelles installées à l'aide du Feature Manager (Gestionnaire des fonctionnalités)

Catégorie Fonctionnalité Description
Fonctionnalités partagées Audit Talend Project Audit transforme des flux de données de projet en importantes informations métier. Il introduit une approche d'audit afin d'évaluer les différents aspects des Jobs implémentés dans Studio Talend,
Fonctionnalités partagées Build Docker image (Construction d'une image Docker) Cette fonctionnalité vous permet de construire un Job comme image Docker afin de l'exécuter sur un moteur Docker.
Fonctionnalités partagées Data Lineage (Lignage des données) Cette fonctionnalité fournit des fonctions avancées pour analyser chaque élément donné, comme un Job, dans la vue du Repository.
  • Analyse d'impact : explore les éléments descendants, jusqu'au composant cible.
  • Lignage de données : explore les éléments ancêtres, en commençant par le composant source.
Fonctionnalités partagées Data Lineage (Scripts de Job) Un script de Job est un autre moyen de créer un processus d'intégration de données avec le Studio Talend, en plus de l'interface graphique de création de Jobs.
Fonctionnalités partagées Job Templates (Modèles de Job) Cette fonctionnalité vous permet d'utiliser les différents modèles pour créer des Jobs prêts à l'utilisation.
Fonctionnalités partagées Metadata Bridge Talend Metadata Bridge accélère l'implémentation, la maintenance et l'amélioration continue des scénarios d'intégration en permettant la synchronisation, le partage et la conversion de métadonnées entre les différents composants.
Fonctionnalités partagées Metadata Import from CSV (Importation des métadonnées étant dans un fichier CSV) Cette fonctionnalité vous permet d'importer des métadonnées se trouvant dans un fichier CSV vers une application externe.
Fonctionnalités partagées Publish to artifact repository (Publication sur le référentiel d'artefacts) Cette fonctionnalité vous permet de publier votre Job, Route ou Service sur un référentiel d'artefacts.
Fonctionnalités partagées Ressources Cette fonctionnalité vous permet de créer des ressources et de les utiliser dans vos Jobs pour la gestion des fichiers. Ainsi, en exportant vos Jobs par exemple, vous pouvez ajouter les fichiers en tant que dépendances du Job et déployer vos Jobs dans devoir copier les fichiers dans le système cible.
Fonctionnalités partagées Talend Activity Monitoring Console Talend Activity Monitoring Console est un outil complémentaire intégré dans le Studio Talend pour monitorer les Jobs et les projets Talend.
Fonctionnalités partagées Test Cases (Scénarios de test) Cette fonctionnalité vous permet de créer des scénarios de test pour vos Jobs et vos Services, durant le développement en intégration continue, afin de vous assurer qu'ils fonctionnent comme attendu lorsqu'ils seront exécutés et devront gérer de grands jeux de données.
Fonctionnalités partagées Règles de validation Une règle de validation est une règle simple ou d'intégrité que vous pouvez appliquer à vos éléments de métadonnées afin de vérifier la validité de vos données. Les deux vérifications sont applicables aux tables de bases de données, aux colonnes individuelles, aux métadonnées de fichiers et à tout élément pertinent des métadonnées.
Data Integration > Components (Composants Intégration de données) Amazon DocumentDB Cette fonctionnalité installe les composants Amazon DocumentDB, y compris le tAmazonDocumentDBConnection, le tAmazonDocumentDBInput, le tAmazonDocumentDBOutput et le tAmazonDocumentDBClose.
Data Integration > Components (Composants Intégration de données) Azure Cosmos DB SQL API Cette fonctionnalité installe des composants Cosmos DB SQL API, dont tCosmosDBSQLAPIInput et tCosmosDBSQLAPIOutput.
Data Integration > Components (Composants Intégration de données) Azure Data Lake Storage Gen2 Cette fonctionnalité installe des composants Azure ADLS Gen2, dont tAzureADLSGen2Input et tAzureADLSGen2Output.
Data Integration > Components (Composants Intégration de données) Azure Storage Cette fonctionnalité installe des composants Azure Storage, dont tAzureStorageQueueCreate, tAzureStorageQueueDelete, tAzureStorageQueueInput, tAzureStorageQueueInputLoop, tAzureStorageQueueList, tAzureStorageQueueOPutput, tAzureStorageQueuePurge, tAzureStorageConnection, tAzureStorageContainerCreate, tAzureStorageContainerDelete, tAzureStorageContainerList, tAzureStorageDelete, tAzureStorageGet, tAzureStorageList, tAzureStoragePut, tAzureStorageInputTable et tAzureStorageOutputTable.
Data Integration > Components (Composants Intégration de données) SGRM / Règles Cette fonctionnalité installe des composants SGRM/règles, dont tBRMS et tRules.
Data Integration > Components (Composants Intégration de données) Couchbase Cette fonctionnalité installe les composants Couchbase, notamment le tCouchbaseDCInput, le tCouchbaseDCOutput, le tCouchbaseInput et le tCouchbaseOutput.
Data Integration > Components (Composants Intégration de données) CyberArk Cette installation de fonctionnalités comprend les composants CyberArk, notamment le tCyberarkInput.
Data Integration > Components (Composants Intégration de données) ESBConsumer Cette fonctionnalité installe le composant tESBConsumer.
Data Integration > Components (Composants Intégration de données) Google Drive Cette fonctionnalité installe des composants Google Drive, dont tGoogleDriveConnection, tGoogleDriveCopy, tGoogleDriveCreate, tGoogleDriveDelete, tGoogleDriveGet, tGoogleDriveList et tGoogleDrivePut.
Data Integration > Components (Composants Intégration de données) Google Bigtable Cette fonctionnalité installe les composants Google Bigtable, y compris le tBigtableConnection, le tBigtableInput, le tBigtableOutput et le tBigtableClose.
Data Integration > Components (Composants Intégration de données) JIRA Cette fonctionnalité installe des composants Jira, dont tJIRAInput et tJIRAOutput.
Data Integration > Components (Composants Intégration de données) Marketo Cette fonctionnalité installe des composants Marketo, dont tMarketoBulkExec, tMarketoCampain, tMarketoConnection, tMarketoInput, tMarketoListOperation et tMarketoOutput.
Data Integration > Components (Composants Intégration de données) MarkLogic Cette fonctionnalité installe les composants MarkLogic, notamment le tMarkLogicBulkLoad, le tMarkLogicClose, le tMarkLogicConnection, le tMarkLogicInput et le tMarkLogicOutput.
Data Integration > Components (Composants Intégration de données) Neo4j Cette fonctionnalité installe des composants Neo4j, dont tNeo4jClose, tNeo4jConnection, tNeo4jInput, tNeo4jOutput, tNeo4jRow, tNeo4jBatchOutput, tNeo4jBatchOutputRelationship et tNeo4jBatchSchema.
Data Integration > Components (Composants Intégration de données) NetSuite Cette fonctionnalité installe des composants NetSuite, dont tNetsuiteConnection, tNetsuiteInput et tNetsuiteOutput.
Data Integration > Components (Composants Intégration de données) NoSQL / SAP Hana / Big Data Cette fonctionnalité installe les composants NoSQL/SAP Hana/ Big Data, dont des composants liés à Cassandra, CosmosDB, CouchDB, DBFS, DynamoDB, ELTHive, HBase, HCatalog, HDFS, Hive, Impala, Kafka, MapRDB, MongoDB, Neo4J, SAPHana et Sqoop.
Data Integration > Components (Composants Intégration de données) Partitioner Cette fonctionnalité installe les composants de partitionnement (Partitioner), notamment le tCollector, le tDepartitoner, le tPartitioner et le tRecollector.
Data Integration > Components (Composants Intégration de données) RabbitMQ Cette fonctionnalité installe des composants RabbitMQ, dont tRabbitMQInput, tRabbitMQOutput, tRabbitMQClose et tRabbitMQConnection.
Data Integration > Components (Composants Intégration de données) RESTClient Cette fonctionnalité installe le composant tRESTClient.
Data Integration > Components (Composants Intégration de données) Salesforce Cette fonctionnalité installe des composants Salesforce, dont tSalesforceBulkExec, tSalesforceConnection, tSalesforceEinsteinBulkExec, tSalesforceEinsteinOutputBulkExec, tSalesforceGetDeleted, tSalesforceGetServerTimestamp, tSalesforceGetUpdated, tSalesforceInput, tSalesforceOutput, tSalesforceOutputBulk et tSalesforceOutputBulkExec.
Data Integration > Components (Composants Intégration de données) SAP Hana (Advanced) Cette fonctionnalité installe les composants SAP Hana (Advanced), dont tSAPHanaClose, tSAPHanaCommit, tSAPHanaConnection, tSAPHanaInput, tSAPHanaOutput, tSAPHanaRollback et tSAPHanaRow.
Data Integration > Components (Composants Intégration de données) Snowflake Cette fonctionnalité installe les composants Snowflake, dont tSnowflakeBulkExec, tSnowflakeClose, tSnowflakeCommit, tSnowflakeConnection, tSnowflakeInput, tSnowflakeOutput, tSnowflakeOutputBulk, tSnowflakeOutputBulkExec, tSnowflakeRollback et tSnowflakeRow.
Data Integration > Components (Composants Intégration de données) Splunk Cette fonctionnalité installe des composants Splunk, dont tSplunkEventCollector.
Data Integration > Components (Composants Intégration de données) Talend Data Preparation

Les composants Talend Data Preparation appliquent des préparations et créent des jeux de données dans Talend Data Preparation, ou créent des flux à l'aide de données de jeux de données Talend Data Preparation.

Data Integration > Components (Composants Intégration de données) Talend Data Stewardship

Les composants Talend Data Stewardship chargent des données dans des campagnes Talend Data Stewardship et récupèrent ou suppriment des données sous la forme de tâches dans des campagnes Talend Data Stewardship.

Data Integration > Components (Composants Intégration de données) Workday Cette fonctionnalité installe des composants Workday, dont tWorkdayInput.
Data Integration > Components (Composants Intégration de données) Zendesk Cette fonctionnalité installe des composants Zendesk, dont tZendeskInput et tZendeskOutput.
Data Integration > Metadata Advanced WSDL (WDSL avancé) Cette fonctionnalité vous aide à définir un schéma Advanced WebService et à le stocker dans l'arborescence Repository.
Data Integration > Metadata CDC Cette fonctionnalité vous aide à configurer un environnement CDC sur une connexion dédiée à une base de données, qui peut rapidement identifier et capturer des données ayant été ajoutées, mises à jour ou supprimées des tables des bases de données. Elle peut aussi rendre disponibles ces données modifiées pour une utilisation future par des applications ou des personnes. Elle est disponible pour Oracle, MySQL, DB2, PostgreSQL, Sybase, MS SQL Server, Informix, Ingres, Teradata et AS/400.
Data Integration > Metadata EDIFACT L'assistant de métadonnées UN/EDIFACT vous permet de créer un schéma à utiliser dans le composant tExtractEDIField afin de lire et extraire des données de fichiers de message UN/EDIFACT.
Data Integration > Metadata Hadoop Cluster Cette fonctionnalité vous permet de créer et de stocker une connexion à un cluster Hadoop dans l'arborescence Repository.
Data Integration > Metadata HBase Cette fonctionnalité vous permet de centraliser et de stocker des informations de connexion à un base de données HBase dans l'arborescence Repository.
Data Integration > Metadata HCatalog Cette fonctionnalité vous permet de centraliser et de stocker des informations de connexion à une table HCatalog dans l'arborescence Repository.
Data Integration > Metadata SAP L'assistant de métadonnées SAP vous permet de créer une connexion à un système SAP BW et à une base de données SAP HANA et de stocker cette connexion dans l'arborescence Repository.
Data Integration > Metadata Talend MDM L'assistant de métadonnées Talend MDM vous permet de centraliser les détails d'une ou de plusieurs connexions MDM dans l'arborescence Repository.
Qualité de données Capacités de profiling de données et composants standards Cette fonctionnalité vous permet d'utiliser :
  • La perspective Profiling : Utilisez des modèles et des indicateurs prédéfinis ou personnalisés pour analyser les données stockées dans différentes sources de données.
  • La perspective Data Explorer : Explorez et interrogez les résultats des analyses de profiling effectuées sur les données.
  • Les composants standards pour la qualité des données
Qualité de données Composants Spark Batch et dépendances Big Data Cette fonctionnalité vous permet d'utiliser les composants Spark Batch pour la qualité des données. Les fonctionnalités Big Data sont aussi installées pour que les composants fonctionnent correctement.
Qualité de données Composants Spark Streaming et dépendances Big Data Cette fonctionnalité vous permet d'utiliser les composants Spark Streaming pour la qualité des données. Les fonctionnalités Big Data sont aussi installées pour que les composants fonctionnent correctement.
Big Data Spark Batch Cette fonctionnalité vous permet de créer des Jobs Spark Batch.
Big Data > Distributions Amazon EMR 5.29.0 Cette fonctionnalité vous permet d'exécuter vos Jobs Spark sur la distribution Amazon EMR 5.29.0.
Big Data > Distributions Amazon EMR 6.2.0 Cette fonctionnalité vous permet d'exécuter vos Jobs Spark sur la distribution Amazon EMR 6.2.0.
Big Data > Distributions Azure Synapse Cette fonctionnalité vous permet d'exécuter vos Jobs Spark sur Azure Synapse Analytics avec des pools Apache Spark comme distribution.
Big Data > Distributions Cloudera CDH Dynamic Distribution (Distribution dynamique Cloudera CDH) Cette fonctionnalité vous permet d'exécuter vos Jobs Spark sur Cloudera CDH à l'aide de distributions statiques (CDH 6.1, CDH 6.2 et CDH 6.3) ou dynamiques.
Big Data > Distributions Cloudera Data Platform Dynamic Distribution (Distribution dynamique Cloudera Data Platform) Cette fonctionnalité vous permet d'exécuter vos Jobs Spark sur Cloudera Data Platform à l'aide de distributions statiques (CDP 7.1) ou dynamiques.
Big Data > Distributions Databricks 5.5 Cette fonctionnalité vous permet d'exécuter vos Jobs Spark sur la distribution Databricks 5.5.
Big Data > Distributions Databricks 6.4 Cette fonctionnalité vous permet d'exécuter vos Jobs Spark sur la distribution Databricks 6.4.
Big Data > Distributions Databricks 7.3 LTS Cette fonctionnalité vous permet d'exécuter vos Jobs Spark sur la distribution Databricks 7.3 LTS.
Big Data > Distributions Hortonworks HDP Dynamic Distribution (Distribution dynamique Hortonworks HDP) Cette fonctionnalité vous permet d'exécuter vos Jobs Spark sur Hortonworks HDP à l'aide de distributions statiques ou dynamiques.
Big Data > Distributions Microsoft Azure HDInsight 4.0 Cette fonctionnalité vous permet d'exécuter vos Jobs Spark sur la distribution Microsoft Azure HDInsight 4.0.
Big Data > Universal Distribution (recommandé) Universal Distribution (Spark 2.4.x) Cette fonctionnalité vous permet d'exécuter vos Jobs Spark sur Universal distribution (distribution universelle) avec Spark 2.4.x.
Big Data > Universal Distribution (recommandé) Universal Distribution (Distribution universelle) (Spark 3.0.x) Cette fonctionnalité vous permet d'exécuter vos Jobs Spark sur Universal distribution (distribution universelle) avec Spark 3.0.x.
Big Data > Universal Distribution (recommandé) Universal Distribution (Distribution universelle) (Spark 3.1.x) Cette fonctionnalité vous permet d'exécuter vos Jobs Spark sur Universal distribution (distribution universelle) avec Spark 3.1.x.
Big Data > Universal Distribution (recommandé) Universal Distribution (Distribution universelle) (Spark 3.2.x) Cette fonctionnalité vous permet d'exécuter vos Jobs Spark sur Universal distribution (distribution universelle) avec Spark 3.2.x.
Big Data > Universal Distribution (recommandé) Universal Distribution (Distribution universelle) (Spark 3.3.x) Cette fonctionnalité vous permet d'exécuter vos Jobs Spark sur Universal distribution (distribution universelle) avec Spark 3.3.x.
Data Mapper Talend Data Mapper Talend Data Mapper vous permet de mapper des enregistrements de données et des documents complexes, puis d'exécuter des transformations dans des Jobs d'intégration de données et des Routes.
Data Mapper Talend Data Mapper for Spark (pour Spark) Talend Data Mapper for Spark (pour Spark) vous permet de mapper des enregistrements de données et des documents complexes, puis d'exécuter des transformations dans des Jobs Big Data.
Data Mapper > Standard structures (Structures standards) HL7 v2.1 Cette fonctionnalité vous permet d'utiliser Talend Data Mapper avec des données au standard HL7 v2.1.
Data Mapper > Standard structures (Structures standards) HL7 v2.2 Cette fonctionnalité vous permet d'utiliser Talend Data Mapper avec des données au standard HL7 v2.2.
Data Mapper > Standard structures (Structures standards) HL7 v2.3 Cette fonctionnalité vous permet d'utiliser Talend Data Mapper avec des données au standard HL7 v2.3.
Data Mapper > Standard structures (Structures standards) HL7 v2.3.1 Cette fonctionnalité vous permet d'utiliser Talend Data Mapper avec des données au standard HL7 v2.3.1.
Data Mapper > Standard structures (Structures standards) HL7 v2.4 Cette fonctionnalité vous permet d'utiliser Talend Data Mapper avec des données au standard HL7 v2.4.
Data Mapper > Standard structures (Structures standards) HL7 v2.5 Cette fonctionnalité vous permet d'utiliser Talend Data Mapper avec des données au standard HL7 v2.5.
Data Mapper > Standard structures (Structures standards) HL7 v2.5.1 Cette fonctionnalité vous permet d'utiliser Talend Data Mapper avec des données au standard HL7 v2.5.1.
Data Mapper > Standard structures (Structures standards) HL7 v2.6 Cette fonctionnalité vous permet d'utiliser Talend Data Mapper avec des données au standard HL7 v2.6.
Data Mapper > Standard structures (Structures standards) HL7 v2.7 Cette fonctionnalité vous permet d'utiliser Talend Data Mapper avec des données au standard HL7 v2.7.
Data Mapper > Standard structures (Structures standards) HL7 v2.7.1 Cette fonctionnalité vous permet d'utiliser Talend Data Mapper avec des données au standard HL7 v2.7.1.
Data Mapper > Standard structures (Structures standards) HL7 v2.8 Cette fonctionnalité vous permet d'utiliser Talend Data Mapper avec des données au standard HL7 v2.8.
Data Mapper > Standard structures (Structures standards) HL7 v2.8.1 Cette fonctionnalité vous permet d'utiliser Talend Data Mapper avec des données au standard HL7 v2.8.1.
Data Mapper > Standard structures (Structures standards) X12 4010 HIPAA Cette fonctionnalité vous permet d'utiliser Talend Data Mapper avec des données au standard X12 4010 HIPAA.
Data Mapper > Standard structures (Structures standards) X12 5010 HIPAA Cette fonctionnalité vous permet d'utiliser Talend Data Mapper avec des données au standard X12 5010 HIPAA.