Propriétés du tRandomForestModel dans des Jobs Spark Batch - 6.1

Composants Talend Guide de référence

EnrichVersion
6.1
EnrichProdName
Talend Big Data
Talend Big Data Platform
Talend Data Fabric
Talend Data Integration
Talend Data Management Platform
Talend Data Services Platform
Talend ESB
Talend MDM Platform
Talend Open Studio for Big Data
Talend Open Studio for Data Integration
Talend Open Studio for Data Quality
Talend Open Studio for ESB
Talend Open Studio for MDM
Talend Real-Time Big Data Platform
task
Création et développement
Gouvernance de données
Qualité et préparation de données
EnrichPlatform
Studio Talend

Famille du composant

Machine Learning / Classification

 

Basic settings

Label column

Sélectionnez la colonne d'entrée utilisée pour fournir les libellés de classification. Les enregistrements de cette colonne sont utilisés comme noms de classes (cibles, en termes de classification) des éléments à classifier.

 

Feature column

Sélectionnez la colonne d'entrée utilisée pour fournir les caractéristiques. Très souvent, cette colonne est la sortie des calculs de l'algorithme Vector assembler effectués par le tModelEncoder.

 

Save the model on file system

Cochez cette case pour stocker le modèle dans un système de fichiers donné.

 

Number of trees in the forest

Saisissez le nombre d'arbres de décision que vous souhaitez que le tRandomForestModel construise.

Chaque arbre de décision est construit indépendamment à l'aide d'un échantillon aléatoire de caractéristiques.

L'incrémentation de ce nombre peut améliorer la précision en diminuant les variations des prédictions, mais augmente le temps d'apprentissage.

Maximum depth of each tree in the forest

Saisissez la profondeur de l'arbre de décision à laquelle la construction doit arrêter d'ajouter des nœuds. Les nouveaux nœuds représentent des tests plus avancés sur les caractéristiques des nœuds internes et des possibles libellés de classes contenus par les nœuds des feuilles.

Par exemple, la profondeur 1 signifie 1 nœud interne plus 2 nœuds de feuilles.

De manière générale, un arbre de décision plus profond est plus expressif et potentiellement plus précis dans ses prédictions, mais consomme également plus de ressources et est plus prompt au surapprentissage.

Advanced settings

Subsampling rate

Saisissez la valeur numérique pour indiquer la fraction de l'ensemble de données d'entrée utilisée pour l'apprentissage de chaque arbre de la forêt. La valeur par défaut 1.0 est recommandée, ce qui signifie que l'ensemble de données complet est utilisé à des fins de test.

 

Subset strategy

Sélectionnez la stratégie concernant le nombre de caractéristiques devant être considérées sur chaque nœud interne pour diviser de manière appropriée ce nœud interne (l'ensemble d'apprentissage ou le sous-ensemble d'une caractéristique de ce nœud) en de plus petits sous-ensembles. Ces sous-ensembles sont utilisés pour construire des nœuds enfants.

Chaque stratégie prend en compte un nombre différent de caractéristique pour trouver le point optimal parmi ces caractéristiques pour la division. Ce point, peut être, par exemple, l'âge 35 de la caractéristique catégorique age.

  • auto : cette stratégie se base sur le nombre d'arbres défini dans le champ Number of trees in the forest de la vue Basic settings. Cette stratégie est celle par défaut.

    Si le nombre d'arbre est 1, la stratégie est all. Si ce nombre est supérieur à 1, la stratégie est sqrt.

  • all : le nombre total de caractéristiques est considéré pour la division.

  • sqrt : le nombre de caractéristiques à considérer est la racine carrée du nombre total de caractéristiques.

  • log2 : le nombre de caractéristiques à considérer est le résultat de log2(M), dans lequel M est le nombre total de caractéristiques.

 

Max bins

Saisissez la valeur numérique indiquant le nombre maximal de bins utilisés pour diviser les caractéristiques.

Les caractéristiques continues sont automatiquement transformées pour trier les caractéristiques discrètes.

 

Min info gain

Saisissez le nombre minimal de gain d'informations à attendre d'un nœud parent vers ses nœuds enfants. Lorsque le gain d'informations est inférieur à ce nombre minimal, la division du nœud est arrêtée.

La valeur par défaut du nombre minimal de gain d'informations est 0.0, ce qui signifie qu'aucune autre informations n'est obtenue en divisant un nœud donné. Par conséquent, la division peut être arrêtée.

Pour plus d'informations concernant le calcul du gain d'informations, consultez Impurity and Information gain dans la documentation Spark (en anglais).

 

Min instances per node

Saisissez le nombre minimal d'instances d'apprentissage qu'un nœud doit avoir pour qu'il soit valide pour une division ultérieure.

La valeur par défaut est 1, ce qui signifie que, lorsqu'un nœud contient seulement 1 ligne de données d'apprentissage, sa division s'arrête.

 

Impurity

Sélectionnez la mesure utilisée pour obtenir la meilleure division de chaque ensemble de divisions.

  • gini : fréquence à laquelle un élément peut être nommé de manière incorrecte dans une division.

  • entropy : combien peuvent être imprévisibles les informations dans chaque division.

Pour plus d'informations concernant le calcul des mesures, consultez Impurity measures dans la documentation Spark (en anglais).

 

Set a random seed

Saisissez le numéro de graine aléatoire à utiliser pour le bootstrapping et choisissez les sous-ensembles de caractéristiques.

Utilisation dans des Jobs Spark Batch

Dans un Job Talend Spark Batch, ce composant est utilisé en tant que composant de fin et requiert un lien d'entrée. Les autres composants utilisés avec lui doivent également être des composants Spark Batch. Ils génèrent nativement du code Spark pouvant être directement exécuté dans un cluster Spark.

Vous pouvez accélérer le processus d'apprentissage en ajustant les conditions d'arrêt, comme la profondeur maximale de chaque arbre de décision, le nombre maximal de bins de division ou le nombre minimum de gain d'informations, mais notez que si l'apprentissage s'arrête trop tôt, cela peut avoir un impact sur ses performances.

Évaluation du modèle

les paramètres que vous devez configurer sont des paramètres libres. Leur valeur peut être fournie par des essais, des suppositions empiriques ou autres. Ils n'ont pas de valeur optimale applicable à tous les ensembles de données.

Vous devez apprendre le modèle de classification que vous générez avec différents ensembles de valeurs de paramètres jusqu'à ce que vous obteniez la meilleure matrice de confusion.

Vous devez sélectionner les scores à utiliser selon l'algorithme à utiliser pour apprendre votre modèle de classification. Cela vous permet de construire la matrice de confusion la plus pertinente.

Pour des exemples concernant comment utiliser une matrice de confusion dans un Job Talend à des fins de classification, consultez Création d'un modèle de classification pour filtrer les spams.

Pour des explications générales relatives aux matrices de confusion, consultez les articles de Wikipédia suivants : https://fr.wikipedia.org/wiki/Matrice_de_confusion pour une version française et https://en.wikipedia.org/wiki/Confusion_matrix pour une version anglaise plus détaillée.

Spark Connection

Vous devez utiliser l'onglet Spark Configuration de la vue Run afin de définir la connexion à un cluster Spark donné pour le Job complet. De plus, puisque le Job attend ses fichiers .jar dépendants pour l'exécution, un (et un seul) composant relatif à un système de fichiers de la famille Storage est requis au sein du même Job, afin que Spark puisse utiliser ce composant pour se connecter au système de fichiers auquel les fichiers .jar dépendants du Job sont transférés :

Cette connexion fonctionne uniquement pour le Job dans lequel vous l'avez définie.

Log4j

Si vous utilisez une solution Talend soumise à souscription, l'activité de ce composant peut être journalisée avec la fonctionnalité log4j. Pour plus d'informations sur cette fonctionnalité, consultez le Guide utilisateur du Studio Talend.

Pour plus d'informations sur les niveaux de logs du log4j, consultez la documentation d'Apache : http://logging.apache.org/log4j/1.2/apidocs/org/apache/log4j/Level.html (en anglais).