Ce que vous devez savoir à propos de certaines bases de données - Cloud - 7.3

Guide d'utilisation du Studio Talend

Version
Cloud
7.3
Language
Français
Product
Talend Big Data
Talend Big Data Platform
Talend Cloud
Talend Data Fabric
Talend Data Integration
Talend Data Management Platform
Talend Data Services Platform
Talend ESB
Talend MDM Platform
Talend Real-Time Big Data Platform
Module
Studio Talend
Content
Création et développement
Last publication date
2024-02-13
Disponible dans...

Big Data Platform

Cloud API Services Platform

Cloud Big Data Platform

Cloud Data Fabric

Cloud Data Management Platform

Data Fabric

Data Management Platform

Data Services Platform

MDM Platform

Real-Time Big Data Platform

Google BigQuery

Profiler des données depuis Google BigQuery nécessite une connexion JDBC.

Pour plus d'informations, consultez comment construire l'URL de connexion (en anglais).

Le type de données RECORD n'est pas supporté.

Lorsque vous configurez une connexion JDBC, spécifiez chaque fichier Jar extrait depuis le fichier zip.

Hive

Le serveur Hive a besoin de suffisamment de mémoire pour s'exécuter correctement. Avant de vous connecter à une base de données Hive :
  1. Allez dans la configuration du serveur Hive.
  2. Configurez le paramètre HiveServer2 Java Heap Size à 1 Go minimum.
Si vous choisissez de vous connectez à une base de données Hive, vous pouvez créer et exécuter différentes analyses, comme avec les autres types de bases de données.

Dans l'assistant, vous devez sélectionnez, dans la liste Distribution la plateforme hébergeant Hive. Vous devez également configurer la version et le mode de Hive.

Pour plus d'informations, consultez la documentation Apache Hadoop (en anglais).

Si vous décidez de modifier le nom d'utilisateur en mode embarqué d'une connexion Hive, vous devez redémarrer le Studio avant de pouvoir exécuter les analyses de profiling utilisant cette connexion.

Si la distribution Hadoop à utiliser est Hortonworks Data Platform V1.2 ou Hortonworks Data Platform V1.3, vous devez configurer des allocations de mémoire correctes pour les calculs Map et Reduce à effectuer par le système Hadoop. Dans la deuxième étape de l'assistant de connexion :
  1. Cliquez sur le bouton à côté de Hadoop Properties et, dans la boîte de dialogue, cliquez deux fois sur le bouton [+] pour ajouter deux lignes à la table.
  2. Saisissez le nom des paramètres, respectivement mapred.job.map.memory.mb et mapred.job.reduce.memory.mb.
  3. Configurez la valeur de chaque paramètre à 1000, la valeur par défaut.

    Cette valeur est appropriée pour exécuter les calculs.

Un type d'analyse et quelques indicateurs et fonctions ne sont pas supportées pour Hive. Consultez le tableau ci-dessous pour plus d'informations :
Consultez le tableau ci-dessous pour plus d'informations : Indicateurs non supportés Analyses non supportées
Avec le moteur SQL :

Soundex Low Frequency

Pattern (Low) Frequency

Upper Quartile et Lower Quartile

Median

Tous les indicateurs de fréquence de date

  • Le menu contextuel View rows des analyses de colonnes avec des indicateurs uniques, de doublons et tous les indicateurs de texte
  • Le menu contextuel View match rows des analyses de colonnes avec des indicateurs uniques, de doublons et tous les indicateurs de texte
  • Tous les menus contextuels sur les résultats d'analyse des analyses de dépendance fonctionnelle.

La seule analyse non supportée par Hive est Time Correlation Analysis, comme le type de données Date n'existe pas dans Hive. Pour plus d'informations concernant ce type d'analyse, consultez Analyse de corrélation temporelle.

Les options de clic-droit sur les résultats d'analyse générant des Jobs pour valider, standardiser ou dédoublonner des données ne sont pas supportés pour Hive. Pour plus d'informations concernant ces Jobs, consultez Validation des données.

Hive et HBase

Lorsque vous choisissez de vous connecter à une base de données Hive ou HBase pour créer et exécuter des analyses différentes, dans l'assistant de connexion, vous devez, comme expliqué ci-dessus, sélectionner dans la liste Distribution la plateforme hébergeant Hive ou HBase.

Si la distribution Hadoop à utiliser est Hortonworks Data Platform V2.0 (YARN), vous devez configurer le paramètres suivant dans la table Hadoop Properties :
  • Le paramètre est yarn.application.classpath
  • La valeur est /etc/hadoop/conf,/usr/lib/hadoop/,/usr/lib/hadoop/lib/,/usr/lib/hadoop-hdfs/,/usr/lib/hadoop-hdfs/lib/,/usr/lib/hadoop-yarn/,/usr/lib/hadoop-yarn/lib/,/usr/lib/hadoop-mapreduce/,/usr/lib/hadoop-mapreduce/lib/

Microsoft SQL Server

Microsoft SQL Server 2012 et les versions supérieures sont supportées.

Si vous choisissez de vous connecter à la base de donnée Microsoft SQL Server via l'authentification Windows , vous pouvez sélectionnez Microsoft ou JTDS open source dans la liste Db Version.

Lorsque vous utilisez une base de données Microsoft SQL Server pour stocker les résultats des rapports, les pilotes Microsoft JDBC et JTDS open source sont supportés.

Si vous créez une connexion à une base de données Azure SQL afin de stocker les rapports et les résultats d'analyse, saisissez ssl=require dans le champ Additional parameters des paramètres de connexion à la base de données.

Avant de créer une connexion à la base de données Microsoft SQL Server en utilisant le pilote jTDS :
  • Téléchargez la version 1.3.1 du pilote jTDS depuis le site Web jTDS (en anglais).
  • Extrayez les fichiers de l'archive et copiez le fichier ntlmauth.dll présent dans x64/SSO ou x86/SSO, selon votre système d'exploitation.
  • Collez le fichier ntlmauth.dll dans le dossier %SYSTEMROOT%/system32

Si vous rencontrez l'erreur suivante : Échec de l'authentification unique : Native SSPI library not loaded, copiez le fichier ntlmauth.dll dans le dossier bin du JRE utilisé par le Studio Talend.

L'interclassement utilisé par la base de données de Microsoft SQL Server doit être sensible à la casse, sinon la génération du rapport pourrait échouer. Vous pourriez rencontrer des erreurs telles que java.sql.SQLException: Invalid column name 'rep_runtime'. Pour plus d'informations concernant les règles d'interclassement, consultez Nom de classement Windows.

Le type de données ntext n'est pas supporté.

MySQL

Lorsque vous créez une connexion à MySQL via JDBC, il n'est pas obligatoire d'inclure le nom de la base de données à l'URL JDBC. Que l'URL de connexion à la base de données spécifiée dans le champ JDBC URL contienne le nom de la base de données ou non, tous les catalogues sont récupérés.

Par exemple, si vous indiquez jdbc:mysql://192.168.33.41:3306/tbi?noDatetimeStringSync=truetbi est le nom de la base de données, ou bien jdbc:mysql://192.168.33.41:3306/?noDatetimeStringSync=true, tous les catalogues sont récupérés.

Afin de supporter les paires de substitution, vous devez modifier les propriétés suivantes dans le fichier de configuration du serveur MySQL :

[client]
default-character-set=utf8mb4
[mysql]
default-character-set=utf8mb4
character-set-server=utf8mb4

Netezza

La base de données Netezza ne supporte pas les expressions régulières. Si vous souhaitez utiliser les expressions régulières avec cette base de données, vous devez :

  • Installer le package SQL Extensions Toolkit dans un système Netezza. Utilisez la fonction regex_like fournie dans ce toolkit dans le modèle SQL comme documenté dans IBM Netezza SQL Extensions toolkit installation and setup (en anglais).
  • Ajouter la définition de l'indicateur pour Netezza dans le dossier Pattern Matching du Studio Talend sous Libraries > Indicators > System Indicators.

    Le modèle de requête à définir pour Netezza se présente comme suit : SELECT COUNT(CASE WHEN REGEXP_LIKE(<%=COLUMN_NAMES%>,<%=PATTERN_EXPR%>) THEN 1 END), COUNT FROM <%=TABLE_NAME%><%=WHERE_CLAUSE%>.

Oracle

Afin de supporter les paires de substitution, le paramètre NLS_CHARACTERSET de la base de données doit être configuré à UTF8 ou AL32UTF8.

Les paramètres NLS_CHARACTERSET par défaut sont :

  • NLS_CHARACTERSET=WE8ISO8859P15
  • NLS_NCHAR_CHARACTERSET=AL16UTF16
Conseil : Pour vérifier les paramètres de la base de données, vous pouvez exécuter la requête SQL suivante : SQL> SELECT * FROM NLS_DATABASE_PARAMETERS;

PostgreSQL

Lorsque vous vous connectez à une base de données PostgreSQL via une connexion JDBC, les types de données INT4 et INT8 sont remplacés par un type de données String. Par conséquent, si votre analyse utilise l'algorithme T-swoosh, les fonctions de consolidation sont pour les chaînes de caractères et non pour les nombres.

Pour changer le type de données :
  1. Fermez l'analyse et passez à la perspective Integration.
  2. Développez le nœud Metadata et cliquez-droit sur la connexion à la base de données > Retrieve Schema > Next.
  3. Cochez la case de la table à mettre à jour.
  4. Lorsque Creation status est configuré à Success, cliquez sur Next.
  5. Si les colonnes sans type de base de données doivent être de type Integer, configurez DB Type à INT.
  6. Cliquez sur Finish et fermez la boîte de dialogue.
  7. Passez à la perspective Profiling et ouvrez l'analyse.
  8. Dans Survivorship Rules for Columns, supprimez et ajoutez à nouveau les colonnes mises à jour. Vous pouvez voir les fonctions de consolidation pour les nombres (Largest et Smallest).

SAP HANA

Profiler des données depuis SAP HANA est possible uniquement pour les schémas Table, View et Calculation View.

Les indicateurs statistiques de fréquence Soundex ne supportent que l'alphabet anglais.

Snowflake

Profiler des données depuis Snowflake nécessite une connexion JDBC.

Pour plus d'informations, consultez Configuring the JDBC Driver (en anglais).

Vous ne pouvez utiliser de connexion créée dans le nœud Snowflake dans la perspective Integration.

Teradata

Si vous choisissez de vous connecter à la base de données Teradata, sélectionnez Yes (Oui) pour l'option USE SQL Mode (Utiliser le mode SQL), afin de permettre au Studio les requêtes SQL pour récupérer les métadonnées. Le pilote JDBC n'est pas recommandé avec cette base de données en raison d'éventuelles mauvaises performances.

Dans la base de données Teradata, la fonction d'expressions régulières est installée par défaut à partir de la version 14. Si vous souhaitez utiliser les expressions régulières avec une version plus ancienne de la base de données, vous devez installer une fonction personnalisée dans Teradata et ajouter la définition de l'indicateur pour Teradata dans le Studio Talend.