Accéder au contenu principal Passer au contenu complémentaire

Format de métadonnées Excel - Import

Availability-note AWS

Prérequis du pont

Ce pont :
  • nécessite un accès à Internet vers https://repo.maven.apache.org/maven2/ et/ou d'autres sites d'outils permettant de télécharger des pilotes dans <TDC_HOME>/data/download/MIMB/.

  • nécessite une installation de l'outil pour accéder à son SDK.

Spécifications du pont

Fournisseur Meta Integration Technology, Inc.
Nom de l'outil Format de métadonnées Excel
Version de l'outil Excel 2003 à 2010
Site Web de l'outil http://metaintegration.com/Products/MIMB/
Méthodologie supportée [Gestion des métadonnées] Multimodèle, ETL (Data stores sources et cibles, Lignage de transformation, Parsage d'expressions) via un fichier Excel 2007 (XLSX)
Profiling de données
Collecte incrémentale
Collecte multi-modèle
Navigation dans le référentiel distant pour sélectionner un modèle

SPÉCIFICATIONS
Outil : Meta Integration Technology, Inc./Format de métadonnées Excel version Excel 2003 à 2010 via un fichier Excel 2007 (XLSX)
Consultez http://metaintegration.com/Products/MIMB/
Métadonnées : [Gestion des métadonnées] Multimodèle, ETL (Data stores sources et cibles, Lignage de transformation, Parsage d'expressions, Conversion d'expression)
Composant : MicrosoftExcel version 11.2.0

AVERTISSEMENT
Ce pont d'import requiert un accès à Internet pour télécharger les bibliothèques tierces :
- par exemple https://repo.maven.apache.org/maven2/ pour télécharger les bibliothèques tierces open source,
- et plus de sites pour d'autres logiciels tiers, comme les pilotes JDBC spécifiques pour les bases de données.

Les bibliothèques tierces téléchargées sont stockées dans $HOME/data/download/MIMB/
- Si le protocole HTTPS échoue, le pont d'import essaye ensuite avec HTTP.
- Si un proxy est utilisé pour accéder à Internet, vous devez configurer ce proxy dans l'environnement JRE (voir l'option -j dans le paramètre Divers).
- Si le pont d'import n'a pas d'accès à Internet, le répertoire $HOME/data/download/MIMB/ peut être copié depuis un autre serveur qui a accès à Internet, où la commande $HOME/bin/MIMB.sh (ou .bat) -d peut être utilisée pour télécharger en une fois toutes les bibliothèques tierces utilisées par tous les ponts.

En exécutant ce pont d'import, vous reconnaissez être responsable des conditions d'utilisation et de toute autre faille de sécurité potentielle liées au téléchargement de ces bibliothèques logicielles tierces.

VUE D'ENSEMBLE
L'objectif de ce pont d'import est d'importer des métadonnées depuis des technologies/outils pour lesquels aucun pont d'import existant n'est disponible : par exemple un data store hérité, des outils ETL ou des Jobs ETL écrits manuellement dans un langage non supporté.

Les outils de productivité, comme les outils d'édition de feuilles de calcul, sont généralement utilisés dans tout le secteur pour capturer, documenter ou publier des métadonnées physiques, logiques ou métier. Un outil tel que Microsoft Office Excel est le choix le plus courant et est presque toujours disponible. Il est compris par les utilisateurs professionnels qui le connaissent bien, permet d'effectuer des copier-coller compatibles avec d'autres applications Office et propose des options pratiques comme le correcteur d'orthographe. Des fonctions d'import et d'export de Microsoft Excel sont fournies afin de tirer parti de ces avantages.

Ce pont d'import importe les métadonnées représentant des data stores physiques, des modèles de données logiques et/ou des mappings de données exprimés dans des feuilles de calcul Microsoft Office Excel basés sur des métadonnées au format Excel standard qui utilisent plusieurs feuilles pour représenter divers aspects du métamodèle :
- Onglets Data Modeling (Modélisation de données) : Modèles, Packages, Relations, Domaines, Contraintes, Énumérations.
- Onglets Data Mappings (Mappings de données) : Mappings, Jointures, Filtres, Lookups, Règles.

Ce pont d'import importe des métadonnées en tant que :
- modèle d'intégration de données/de mapping de données si elles contiennent des mappings,
- modèle de données logique/physique si elles contiennent des packages,
- data store physique (p. ex. Oracle) dans tous les autres cas.

Un plug-in de Métadonnées au format Excel crée un menu "Métadonnées" dans le ruban Excel pour parcourir et gérer plus facilement les feuilles de calcul conçues à l'aide du format standard. Ces fonctions comprennent :
- l'insertion de nouvelles feuilles de travail au format "Standard" ;
- l'affichage ou le masquage des fonctions pour contrôler l'affichage des colonnes ;
- l'annotation, le formatage et la validation des entrées dans une feuille de travail.

Le meilleur moyen d'apprendre comment utiliser les métadonnées au format Excel standard est de s'appuyer sur des exemples précédemment exportés depuis des bases de données, modèles de données ou Jobs d'intégration de données importés.
Cependant, notez que le format de Métadonnées Excel n'a pas été conçu pour (et donc ne supporte pas) les allers-retours d'exports, de modifications et d'imports. En d'autres termes, ce pont d'import importe des métadonnées comme une technologie d'intégration, alors que le pont d'import correspondant exporte des métadonnées en tant que rapport (p. ex. en synthétisant un lignage de Jobs complexes d'intégration de données/ETL).

AVERTISSEMENT CONCERNANT LA DÉPRÉCIATION ET LA FIN DE VIE
Comme expliqué ci-dessus, le pont d'import "Metadata Excel Format (Format de métadonnées Excel)" est conçu pour émuler les outils non supportés (pour lesquels un pont d'import natif n'est pas disponible) dans deux situations indépendantes :
1- Modélisation de données émulant un data store (base de données, application métier, etc.)
2- Mapping de données émulant une intégration de données (DI, ETL, ELT, CDC)

Cet ancien pont d'import "Metadata Excel Format (Format de métadonnées Excel)" utilisé pour l'émulation de mapping de données (situation numéro 2) a été déprécié en 2022 et atteindra sa fin de vie sans support en 2024, car il a été remplacé par le pont d'import "Data Mapping Script (Script de mapping de données)", plus efficace.
Notez que le nouveau format de script de mapping de données fournit un nombre d'avantages par rapport à l'ancien format de Métadonnées Excel (déprécié), notamment :
- Le format de script de mapping de données supporte les allers-retours (export/import) depuis/vers un mapping de données, alors que ce n'est pas le cas de l'ancien format de Métadonnées Excel avec lequel l'export concernait les rapports et l'import l'amorçage (bootstrapping).
-Les fichiers du format de script de mapping de données sont généralement plus compacts que les fichiers très verbeux de Métadonnées Excel basés sur les maps de classifieur/table et maps de fonctionnalités/colonnes.
- Le format de script de mapping de données est plus simple à générer à partir d'outils SQL basés DI/ETL/ELT/CDC.
- Le format de script de mapping de données supporte les mappings de masse et les mappings de requêtes, alors que le format de Métadonnées Excel est limité dans sa gestion des mappings de masse.
- Le format de script de mapping de données supporte plus de technologies de data stores sources et cibles (SGBDR, NoSQL, systèmes de fichiers) que le format de Métadonnées Excel.

PRÉREQUIS
Le fichier doit être conforme au format Metadata Excel qui est :
- basé sur un modèle Excel nommé Standard-Blank.xlsx ;
- supporté/appliqué par un plug-in Excel nommé Standard-Addin.xlam ;
situé dans ${MODEL_BRIDGE_HOME}\conf\MIRModelBridgeTemplate\MIRMicrosoftExcel

Référez-vous à la documentation Microsoft Excel pour installer des plug-ins dans Excel.

FOIRE AUX QUESTIONS
Q : Pourquoi le Nom métier et la Description métier ne sont-ils pas importés ?
R : Lorsque le fichier Metadata Excel Format ne contient aucun package de mapping ou de modélisation de données, les métadonnées sont importées en tant que data store physique (comme une base de données Oracle) pour lequel le métamodèle ne contient pas (et donc ignore) les noms et les descriptions métier.

Dans le cas de SGBDR, tous les commentaires SQL (qui peuvent être utilisés pour documenter des tables ou des colonnes dans le DDL) seront importés en tant que Commentaire (lui-même sans lien avec tout autre concept de Commentaire ou Évaluation d'utilisateur).

Dans le cas d'un mapping de données, il n'y a que des définitions de connexions et non des définitions réelles de data stores. Ainsi, seules les définitions de connexion vont recevoir les valeurs importées et cela ne permet pas de documenter les data stores eux-mêmes.

Q : Comment le pont d'import gère-t-il les "jointures implicites" ?
R : Lorsqu'une transformation est définie et qu'elle requiert la jointure d'au moins deux tables, une jointure doit être spécifiée sur une feuille de travail de type "Jointures". S'il n'existe pas d'entrée dans l'une des feuilles de travail de type "Jointures" ou s'il n'existe pas de feuille de travail de ce type, alors le pont d'import tente de générer les spécifications de jointure correspondantes requises. Dans de nombreux cas, le pont d'import ne dispose pas d'assez d'informations pour créer la jointure correcte et génère à la place une jointure proposée qui doit être corrigée dans l'outil d'export.

D'autre part, s'il existe des entrées (des spécifications de jointure) dans des feuilles de travail de type "Jointures", le pont d'import considère que toutes les jointures sont pleinement spécifiées.

Q : Pourquoi les erreurs "Table introuvable", "Schéma introuvable" ou "Modèle introuvable" se produisent-elles ?
R : Ces erreurs et d'autres peuvent être évitées en utilisant l'opération "Validation des plug-ins". Cette opération décèle la plupart des erreurs et positionne le curseur sur la cellule contenant la première erreur. La cellule est marquée de rouge et un message d'erreur spécifique est ajouté en commentaire de la cellule.

Q : Comment puis-je lire un fichier XLSX avec une version d'Excel antérieure à 2007 ?
R : Depuis un centre de téléchargement Microsoft, installez le "Module de compatibilité Microsoft Office pour les formats de fichiers Word, Excel et PowerPoint". Il supporte Office XP et 2003.

Q : Comment résoudre le message d'erreur "Mémoire insuffisante" dans le log ?
R : Par défaut, le pont d'import alloue 512 Mo de mémoire. Pour les modèles volumineux, vous pouvez augmenter ce nombre, ainsi que passer à une machine virtuelle Java de 64 bits si vous avez besoin de plus de 2 Go. Mettez à jour le fichier de configuration $MetaIntegration/conf/conf.properties grâce au paramètre -Xmx pour une JVM de 64 bits, par exemple :
M_JAVA_HOME=..\jre
M_JAVA_OPTIONS=-Xmx2G

LIMITATIONS
Consultez les limitations générales connues à l'adresse MIMB Known Limitations ou dans Documentation/ReadMe/MIMBKnownLimitations.html où elles sont regroupées

Le format Excel Metadata n'est pas recommandé, particulièrement pour la documentation, notamment pour le Nom métier et la Description métier. Le client doit utiliser le format CSV à la place pour l'export, la modification et le réimport, comme expliqué dans le Guide d'utilisation, qui va documenter les data stores et non les définitions de connexions.

1. Toutes les feuilles de calcul de métadonnées sources doivent être définies au format Standard, car c'est le seul format qui est directement supporté. Pour accommoder une activité de migration héritée impliquant un grand nombre de feuilles de calcul existantes, le format attendu par le pont d'import n'est pas codé en dur mais défini par les feuilles de calcul vides spécifiant la manière dont chaque cellule de feuille de calcul est liée à un métamodèle de référentiel neutre. Cette flexibilité n'est disponible qu'avec un pont d'import personnalisé spécifique et qui doit être fourni par des services d'assistance.
2. Bien que les deux fonctions d'import (lecture à partir d'une feuille de calcul) et d'export (écriture dans une feuille de calcul) sont disponibles, elles ne sont pas faites pour supporter des allers-retours de re-traitement. Par exemple, les prérequis de mapping peuvent subir un traitement préalable dans un outil d'intégration de données/ETL mais le but de réexporter depuis cet outil d'intégration de données/ETL dans Excel est de fournir un résumé de lignage de mapping indépendant des diverses transformations internes complexes et de ne pas re-traiter la conception ni de la réimporter.
3. Les modèles d'outil de conception et d'architecture de données supportent des éditions de type aller-retour dans Excel afin d'exploiter les fonctions de correcteur d'orthographe, de copier-coller basé sur les colonnes et lignes et d'autres aspects pratiques inhérents à un environnement de feuille de calcul. Dans ce cas, la feuille de calcul doit être exportée, modifiée, puis réimportée dans l'outil de conception d'origine, tirant ainsi profit des fonctions de comparaison et de fusion fournies par l'outil de "réception".
4. Les nouveaux data stores sources ou cibles peuvent être exportés vers une feuille de calcul existante, mais sans bénéficier des fonctions de fusion ou de mise à jour cette fois. De plus, lors de l'import d'une feuille de calcul Excel dans un outil d'intégration de données/ETL, l'outil "récepteur" est responsable de l'intégration/la fusion des modèles ainsi que des mappings dans ses versions existantes.
5. Des suppositions et limitations sont fournies pour chaque format pré-défini dans le fichier ${MODEL_BRIDGE_HOME}\conf\MIRModelBridgeTemplate\MIRMicrosoftExcel\*-Blank.xlsx approprié.
6. Dans certains cas, l'utilisation d'une feuille de calcul pour gérer des métadonnées peut connaître des limitations. Par exemple, il n'existe pas de limite du nombre d'entités/tables par modèle ou du nombre d'attributs/colonnes par entité/table. Toutefois, il existe des limitations pour toute information représentée comme colonnes pour des raisons de facilité d'utilisation. Par exemple, l'imbrication de packages dans un modèle, le nombre de clés PK/FK/AK dans lesquelles un attribut/une colonne donné(e) est impliqué(e) et, plus important encore, le nombre de propriétés définies par l'utilisateur (UDP) personnalisées associées à une entité/table, un attribut/une colonne ou un type de données.
7. Le type de fichier plat supporte les fichiers plats délimités ou à largeur fixe. Les fichiers à largeur fixe utilisent l'attribut de position pour définir le "nombre absolu de caractères à partir du début de la ligne" pour chaque champ/colonne. Les fichiers délimités utilisent l'attribut de position pour reproduire l'ordre des champs/colonnes.
8. À propos de la différence entre Commentaires et Descriptions :
Un modèle de données physique possède un "Commentaire" sur une table qui au final est généré comme Commentaire SQL dans le DDL.
Un modèle de données logique possède une "Description" sur une entité. Cette entité logique peut être associée à une table physique si le modèle est Logique/physique. En revanche, un modèle Physique uniquement ne peut pas avoir ni de description, ni de commentaire par nature.
Par conséquent, si un ou une entité/table/enregistrement/vue/fichier a le niveau de conception Logique/physique, vous pourrez voir séparément un commentaire (physique) et une description (logique).
Toutefois, si un ou une entité/table/enregistrement/vue/fichier a le niveau de conception Physique uniquement, seule une description peut être prise du commentaire (physique) ou de la description (logique) si elle existe (dans ce cas le commentaire physique est ignoré).

SUPPORT
Fournissez un package de dépannage avec :
- le log de débogage (peut être défini dans l'UI ou dans conf/conf.properties avec MIR_LOG_LEVEL=6)
- la sauvegarde des métadonnées si disponible (peut être configurée dans le paramètre Divers avec l'option -backup, même si cette option commune n'est pas implémentée pour tous les ponts pour des raisons techniques).


Paramètres du pont

Nom du paramètre Description Type Valeurs Défaut Périmètre
Fichier Ce pont d'import lit une feuille de calcul Excel au format XLSX et crée un modèle à partir de ses informations textuelles. Le paramètre "Fichier" doit contenir le nom de cette première feuille de calcul, généralement qualifiée de "feuille de calcul d'import de métadonnées".

Cette feuille de calcul d'import de métadonnées DOIT posséder le format correspondant à celui de la feuille de calcul vide.
Veuillez trouver des exemples de ces feuilles de calcul d'import de métadonnées en suivant le chemin d'accès :
${MODEL_BRIDGE_HOME}/conf/MIRModelBridgeTemplate/MIRMicrosoftExcel/BlankFiles/
À l'aide de ces fichiers, vous pourrez créer simplement une feuille de calcul d'import de métadonnées avec vos propres informations de modèle qui correspondent à ces exemples.
Fichier *.xlsx   Éléments obligatoires
Miscellaneous INTRODUCTION
Spécifiez les options Divers, commençant par un tiret et suivies éventuellement par des paramètres, par exemple :
-connection.cast MyDatabase1="MICROSOFT SQL SERVER"
Certaines options peuvent être utilisées plusieurs fois, si applicable, par exemple :
-connection.rename NewConnection1=OldConnection1 -connection.rename NewConnection2=OldConnection2;
La liste d'options pouvant être une longue chaîne, il est possible de la charger à partir d'un fichier qui doit être situé dans ${MODEL_BRIDGE_HOME}\data\MIMB\parameters et avoir l'extension .txt. Dans ce cas, toutes les options doivent être définies au sein de ce fichier comme seule valeur de ce paramètre, par exemple
ETL/Miscellaneous.txt

OPTIONS DE L'ENVIRONNEMENT JAVA
-java.memory <taille maximale de la mémoire Java> (anciennement -m)

1 Go par défaut sur un JRE de 64 bits ou tel que défini dans conf/conf.properties, par exemple
-java.memory 8G
-java.memory 8000M

-java.parameters <options de ligne de commande de Java Runtime Environment> (anciennement -j)

Cette option doit être la dernière dans le paramètre Divers car tout le texte après -java.parameters est passé tel quel à la JRE. Par ex.
-java.parameters -Dname=value -Xms1G
L'option suivante doit être définie lorsqu'un proxy est utilisé pour accéder à Internet (cela est essentiel pour accéder à https://repo.maven.apache.org/maven2/ et exceptionnellement à quelques autres sites d'outils) afin de télécharger les bibliothèques logicielles tierces nécessaires.
Note : La majorité des proxys sont relatifs au chiffrement (HTTPS) du trafic extérieur (à l'entreprise) et à la confiance en le trafic intérieur pouvant accéder au proxy via HTTP. Dans ce cas, une requête HTTPS atteint le proxy via HTTP où le proxy la chiffre en HTTPS.
-java.parameters -java.parameters -Dhttp.proxyHost=127.0.0.1 -Dhttp.proxyPort=3128 -Dhttp.proxyUser=user -Dhttp.proxyPassword=pass

OPTIONS D'IMPORT DU MODÈLE
-model.name <nom modèle>

Écrase le nom du modèle, par ex.
-model.name "My Model Name"

-prescript <nom script>

Cette option permet d'exécuter un script avant l'exécution du pont.
Le script doit se situer dans le répertoire bin (ou comme spécifié dans M_SCRIPT_PATH dans conf/conf.properties) et avoir une extension .bat ou .sh.
Le chemin d'accès au script ne doit pas inclure de symbole relatif au répertoire parent (..).
Le script doit retourner le code de sortie 0 pour indiquer un succès ou une autre valeur pour indiquer un échec.
Par exemple :
-prescript "script.bat arg1 arg2"

-postscript <nom script>

Cette option permet d'exécuter un script après l'exécution réussie du pont.
Le script doit se situer dans le répertoire bin (ou comme spécifié dans M_SCRIPT_PATH dans conf/conf.properties) et avoir une extension .bat ou .sh.
Le chemin d'accès au script ne doit pas inclure de symbole relatif au répertoire parent (..).
Le script doit retourner le code de sortie 0 pour indiquer un succès ou une autre valeur pour indiquer un échec.
Par exemple :
-postscript "script.bat arg1 arg2"

-cache.clear

Vide le cache avant l'import et va exécuter un import complet avec collecte incrémentale.

Si le modèle n'a pas été modifié et que le paramètre -cache.clear n'est pas utilisé (collecte incrémentale), une nouvelle version ne sera pas créée.
Si le modèle n'a pas été modifié et que le paramètre -cache.clear n'est pas utilisé (collecte incrémentale), une nouvelle version ne sera pas créée.

-backup <répertoire>

Cette option permet de sauvegarder les métadonnées d'entrée du pont à des fins de débogage. Le <répertoire> fourni doit être vide.

L'utilisation principale de cette option concerne les ponts d'import des data stores, en particulier les ponts d'import basés sur des bases de données JDBC.

Notez que cette option n'est pas opérationnelle sur certains ponts, notamment :
- les ponts d'import basés sur des fichiers (car des fichiers d'entrée peuvent être utilisés à la place)
- les ponts d'import de référentiels d'intégration de données/BI (car les outils natifs de sauvegarde du référentiel peuvent être utilisés à la place)
- Certains ponts d'import basés sur des API (par ex. basés sur COM) pour des raisons techniques.

OPTIONS DES CONNEXIONS DE DONNÉES
Les connexions de données sont produites par les ponts d'import, généralement à partir des outils ETL/DI et BI pour faire référence aux data stores sources et cibles qu'elles utilisent. Ces connexions de données sont ensuite utilisées par les outils de gestion des métadonnées pour connecter ces dernières (connexion des métadonnées) à leurs data stores réels (par exemple, bases de données, système de fichiers, etc.) afin de produire le lignage complet de flux de données et de l'analyse d'impact de bout en bout. Le nom des connexions de données doit être unique dans chaque modèle d'import. Les noms de connexion de données utilisés dans les outils de conception DI/BI sont utilisés quand cela est possible, sinon ils sont générés en étant courts mais significatifs, comme le nom de la base de données/du schéma, le chemin d'accès au système de fichiers ou l'URI (Uniform Resource Identifier). L'option suivante vous permet de manipuler les connexions. Ces options remplacent les options héritées -c, -cd et -cs.

-connection.cast ConnectionName=ConnectionType

Lance une connexion à une base de données générique (par exemple ODBC/JDBC) pour un type de base de données précis (par exemple ORACLE) pour une analyse SQL, par exemple
-connection.cast "My Database"="MICROSOFT SQL SERVER".
La liste des types de connexions aux data stores comprend :
ACCESS
APACHE CASSANDRA
DB2/UDB
DENODO
GOOGLE BIGQUERY
HIVE
MYSQL
NETEZZA
ORACLE
POSTGRESQL
PRESTO
REDSHIFT
SALESFORCE
SAP HANA
SNOWFLAKE
MICROSOFT SQL AZURE
MICROSOFT SQL SERVER
SYBASE SQL SERVER
SYBASE AS ENTERPRISE
TERADATA
VECTORWISE
HP VERTICA

-connection.rename OldConnection=NewConnection

Renomme une connexion existante, par exemple, par ex.
-connection.rename OldConnectionName=NewConnectionName
Plusieurs connexions de bases de données existantes peuvent être renommées et fusionnées en une nouvelle connexion de base de données, par exemple :
-connection.rename MySchema1=MyDatabase -connection.rename MySchema2=MyDatabase

-connection.split oldConnection.Schema1=newConnection

Scinde une connexion de base de données en une ou plusieurs connexions de base de données.
Une connexion de base de données peut être scindée en une connexion par schéma, par exemple :
-connection.split MyDatabase
Toutes les connexions de base de données peuvent être fractionnées en une connexion par schéma, par exemple :
-connection.split *
Une connexion de base de données peut être explicitement fractionnée en une nouvelle connexion de base de données en ajoutant un nom de schéma à une base de données, par exemple :
-connection.split MyDatabase.schema1=MySchema1

-connection.map SourcePath=DestinationPath

Mappe un chemin d'accès source à un chemin d'accès de destination. Cela est utile pour les connexions aux systèmes de fichiers lorsque différents chemins d'accès pointent vers le même objet (répertoire ou fichier).
Sur Hadoop, un processus peut écrire dans un fichier CSV spécifié avec le chemin d'accès complet HDFS, tandis qu'un autre processus lit d'une table Hive implémentée (externe) par le même fichier spécifié à l'aide d'un chemin d'accès relatif avec un nom et une extension de fichier par défaut, par exemple :
-connection.map /user1/folder=hdfs://host:8020/users/user1/folder/file.csv
Sous Linux, il peut être fait référence à un répertoire (ou à un fichier) donné tel que /data par plusieurs liens symboliques tels que /users/john et /users/paul, par exemple :
-connection.map /data=/users/John -connection.map /data=/users/paul
Sous Windows, il peut être fait référence à un répertoire donné tel que C:\data par plusieurs lecteurs réseau tels que M: et N:, par exemple :
-connection.map C:\data=M:\ -connection.map C:\data=N:\

-connection.casesensitive ConnectionName

Écrase les règles de rapprochement insensibles à la casse par défaut pour les identifiants d'objets dans la connexion spécifiée, si le type du data store détecté supporte cette configuration (par ex. Microsoft SQL Server, MySQL etc.), par exemple :
-connection.casesensitive "My Database"

-connection.level AggregationLevel

Spécifie le niveau d'agrégation pour les connexions externes, par exemple -connection.level catalog
Liste des valeurs supportées :
server (serveur)
catalog (catalogue)
schema (schéma) (par défaut)

OPTIONS ETL
Ces options sont disponibles dans tous les ponts d'import de scrit et d'outils d'intégration de données/d'ETL afin de :
- traiter tous les parsages SQL
- construire des modèles au moment de l'exécution à partir de modèles de conception et de variables d'exécution,
- calculer un lignage de synthèse au moment de l'exécution.

-etl.summary.add.ultimate (anciennement -ppus)

Ajoute la dernière synthèse de lignage d'exécution (peut générer un modèle très volumineux).

-etl.summary.only.ultimate (précédemment -ppsp)

Produit uniquement la dernière synthèse de lignage d'exécution (peut générer un modèle très volumineux).

-etl.connections.add.internal.design (précédemment -pppd)

Ajoute les connecteurs internes de données de conception ETL (requis pour la conversion ETL).

-etl.connections.remove.input (anciennement -ri)

Supprime toutes les connexions de données d'entrée (source), afin de réduire la taille du modèle généré.

-etl.transformations.enable.xml

Cette option permet le parsage et le support des transformations XML dans des ponts d'import d'intégration de données/ETL comme Informatica PowerCenter, Informatica Developer, Microsoft SSIS, IBM DataStage et Talend Data Integration.
Dans le cas d'Informatica, de telles transformations XML correspondent aux fonctionnalités suivantes de PowerCenter
https://docs.informatica.com/data-integration/powercenter/10-5/xml-guide/midstream-xml-transformations.html
https://docs.informatica.com/data-integration/powercenter/10-5/xml-guide/xml-source-qualifier-transformation.html
Notez que cette option peut ralentir l'import de manière considérable.
Chaîne de caractères      

 

Mapping du pont

Meta Integration Repository (MIR)
Métamodèle
(se base sur le standard OMG CWM)
"Format de métadonnées Excel"
Métamodèle
MicrosoftExcel
Mapping des commentaires
     
Attribut Attributs, SourceAttributes ou TargetAttributes  
Comment Commentaire de l'attribut  
Description Description de l'attribut  
InitialValue Valeur initiale de l'attribut  
Name (Nom) Nom d'attribut Talend Administration Center  
Facultatif Attribut facultatif Attribut requis
PhysicalName Nom physique de l'attribut  
Position Position de l'attribut  
Classe Classes, SourceClasses (Classes sources) ou TargetClasses (Classes cibles)  
Comment Commentaire de la classe  
Description Description de la classe  
Name (Nom) Class Name (Nom de la classe)  
PhysicalName Nom physique de la classe  
ClassifierMap   Calculé en se basant sur les FeatureMaps
DataAttribute   Calculé en se basant sur les FeatureMaps
DataSet   Créé en se basant sur la Transformation
DatabaseSchema Schémas, SourceSchemas ou TargetSchemas Créé en se basant sur le "Type système"
Commentaire Commentaire du schéma  
Description Description du schéma  
Name (Nom) Nom du schéma  
PhysicalName Nom physique du schéma  
DerivedType   Créé en utilisant le "Type de données hérité de" ou calculé en se basant sur les données du modèle.
Comment Commentaire du type de données  
Description Description du type de données  
InitialValue Valeur initiale du type de données  
Length (Longueur) Longueur du type de données  
LowerBound Valeur min du type de données  
Name (Nom) Nom du type de données  
PhysicalName Nom physique du type de données  
Échelle Échelle du type de données  
UpperBound Valeur max du type de données  
UserDefined   Calculé en se basant sur l'utilisation du type de données
DesignPackage DataPackages, SourceDataPackages ou TargetDataPackages  
Comment Commentaire du package  
Description Description du package  
Name (Nom) Nom du package  
PhysicalName Nom physique du package  
FeatureMap FeatureMaps Calculé en se basant sur les références des attributs sources et cibles.
Description Description de la FeatureMap  
Name (Nom) Nom de la FeatureMap  
Operation (Opération) Opération de la FeatureMap  
FileDirectory Schémas, SourceSchemas ou TargetSchemas Créé en se basant sur le "Type système"
Commentaire Commentaire du schéma  
Description Description du schéma  
Name (Nom) Nom du schéma  
PhysicalName Nom physique du schéma  
PropertyType   Défini dans le modèle
DataType (TypeDeDonnées)   Défini dans le modèle
InitialValue   Défini dans le modèle
Name (Nom)   Défini dans le modèle
Name (Nom)   Défini dans le modèle
Valeur   Défini dans le modèle
StoreModel Modèles  
Author Heure de création du modèle  
Comment Commentaire du modèle  
CreationTime Heure de création du modèle  
Description Description du modèle  
ModificationTime Heure de création du modèle  
Modificateur Heure de création du modèle  
Name (Nom) Nom du modèle  
PhysicalName Nom du modèle physique  
SystemType Type du système  
SystemTypeOld Type du système  
TypeValue DataTypes, SourceDataTypes ou TargetDataTypes  
Description Data Type Enumerated Value Description  
Name (Nom) Data Type Enumerated Value  

Cette page vous a-t-elle aidé ?

Si vous rencontrez des problèmes sur cette page ou dans son contenu – une faute de frappe, une étape manquante ou une erreur technique – dites-nous comment nous améliorer !