Ponts Talend Cloud Data Catalog - Cloud

Notes de version Talend Cloud Data Catalog

Version
Cloud
Language
Français (France)
Product
Talend Cloud
Module
Talend Data Catalog
Content
Gouvernance de données
Notes de version

Nouvelles fonctionnalités et améliorations

Fonctionnalité Description

Snowflake (via JDBC) : une clé étrangère pour une clé non primaire n'est pas affichée

Ajout du support des clés uniques.

Hadoop Hive (via JDBC)/Databricks : Nouveau support de l'entité espace de travail

La génération d'entités espace de travail a été implémentée.

Import Hadoop Hive/Export Microsoft Azure Purview : ajout de l'option Divers -connection.map.

L'option Divers -connection.map a été ajoutée.
Export DDL de base de données/Hadoop Hive Metastore : nouveau support d'export DDL des types complexes et des emplacements externes Le support d'export DDL des types complexes et des emplacements externes a été ajouté.

Serveur Tableau : nouveau support des procédures stockées SQL Server

Ajout d'une classe de sources de données utilisant des procédures stockées pour récupérer des données depuis une base de données.

Oracle Business Intelligence (OBI) Publisher Data Model (fichier XDM)/Oracle Business Intelligence (OBI) Publisher Reports (fichier XDO) : nouveaux ponts Bêta

Pont d'import Oracle Business Intelligence (OBI) Publisher Data Model (fichier XDM) : ajout d'un pont Bêta et de l'implémentation initiale pour supporter le format XDM.

Pont d'import Oracle Business Intelligence (OBI) Publisher Reports (fichier XDO) : ajout d'un pont Bêta pour le futur support du format XDO (il importe uniquement des modèles de rapport vides pour le moment).

Oracle Business Intelligence (OBI) Enterprise Edition (Serveur) : ajout d'un paramètre pour spécifier les sources de données Publisher.

Ajout d'un paramètre pour spécifier les sources de données de l'éditeur (Publisher).

Corrections notables

Problème Description

Snowflake (via JDBC) : pas d'échantillon de données lors de l'utilisation de l'utilisateur·trice sans warehouse par défaut

Le warehouse a été ajouté à la chaîne de caractères de connexion JDBC.

Oracle Data Modeler (ODM) 4.x : nom de schéma manquant

L'import du nom de schéma a été corrigé.
Talend Data Integration : échoue à cause de composants personnalisés Correction de la détection des composants de métadonnées JSON.

Talend Data Integration : mauvaise résolution de la connexion à la base de données

Correction de la situation dans laquelle le Job déclare un contexte nommé local, après import d'un contexte du référentiel.

Hadoop Hive (via JDBC) : mauvais chemin d'emplacement de la table.

Le chemin de l'emplacement de la table a été corrigé.
IBM Cognos Content Manager/Connexion de test : La validation d'un référentiel prend du temps si un sous-jeu du référentiel est spécifié

La valeur par défaut du paramètre Contenu a été modifiée.

Base de données SAP HANA (via JDBC) : Erreur lors du démarrage d'une opération : Object (0,0) is not a repository object (L'objet 0,0 n'est pas un objet du référentiel)

Correction de la propagation des liens de définitions de termes lors de la collecte de nouveaux modèles.

Système de fichiers/Échantillonnage de données/Profiling de données : Exception FileNotFound (Fichier introuvable) pour les fichiers sur disque Windows partagé

Correction de l'exception pour la requête de profiling de données sur le chemin distant Windows.
Microsoft SSRS : Erreur : Exception Illegal Argument (Argument interdit) Correction de l'exception lorsque plusieurs jeux de données sont connectés au même cube.
Base de données Oracle MySQL (via JDBC) : problèmes de connexion liés à la sensibilité à la casse Le modèle de stockage SystemCase a été configuré pour être insensible à la casse.

Google BigQuery : impossible de scanner des jeux de données provenant de différentes régions dans un même projet

Ajout du paramètre Emplacements.
Databricks : Le profileur de données échoue lors de la collecte Correction du profiling et de l'échantillonnage de données.

Amazon Web Services (AWS) Glue ETL (via Apache Spark)/Apache Spark (avec Python ou Scala) : échec de l'import de scripts AWS Glue avec MITI.MIRException : The Model is not consistent (le modèle n'est pas cohérent)

Ajout de la possibilité de créer des sauvegardes.