Modéliser les zones à risques d'accident dans une ville - 7.0

Machine Learning

EnrichVersion
7.0
EnrichProdName
Talend Big Data
Talend Big Data Platform
Talend Data Fabric
Talend Real-Time Big Data Platform
EnrichPlatform
Studio Talend
task
Création et développement > Systèmes tiers > Composants Machine Learning
Gouvernance de données > Systèmes tiers > Composants Machine Learning
Qualité et préparation de données > Systèmes tiers > Composants Machine Learning

Ce scénario s'applique uniquement aux solutions Talend avec Big Data nécessitant une souscription.

Pour plus d'informations concernant les technologies supportées par Talend, consultez Composants Talend.

Dans ce scénario, le composant tKMeansModel est utilisé pour analyser un jeu de données géographiques concernant la destination d'ambulances dans une ville, afin de modéliser les zones comportant plus de risques d'accidents.

Un modèle comme celui-ci peut être employé pour permettre de déterminer le meilleur emplacement pour la construction d'hôpitaux.

Vous pouvez télécharger ces données d'exemple ici. Elles sont constituées de paires de latitudes et longitudes.

Les données d'exemple ont été générées aléatoirement et automatiquement à des fins de démonstration uniquement et ne reflètent pas la situation réelle de ces zones.

Prérequis :
  • La version de Spark à utiliser est au minimum la 1.4.

  • Les données d'exemples doivent être stockées dans votre système de fichiers Hadoop et vous devez avoir les droits en lecture sur ces données, au minimum.

  • Votre cluster Hadoop doit être correctement installé et être en cours de fonctionnement.

Si vous n'êtes pas sûr(e) de respecter ces prérequis, contactez l'administrateur de votre système Hadoop.
Les composants à utiliser sont les suivants :
  • un tFileInputDelimited : qui charge les données d'exemple dans le flux de données du Job ;

  • un tReplicate : qui réplique les données d'exemple et met en cache la réplication ;

  • un tKMeansModel : qui analyse les données pour l'apprentissage du modèle et écrit le modèle dans HDFS ;

  • un tModelEncoder : qui pré-traite les données afin de préparer des vecteurs de caractéristiques à utiliser par le tKMeansModel ;

  • un tPredict : qui applique le modèle KMeans sur la réplication des données d'exemple. Lors d'une utilisation réelle, ces données doivent être un jeu de données de référence, afin de tester la précision du modèle ;

  • un tFileOutputDelimited : qui écrit le résultat de la prédiction dans HDFS.

  • tHDFSConfiguration : ce composant est utilisé par Spark pour se connecter au système HDFS dans lequel les fichiers Jar dépendant du Job sont transférés.

    Dans l'onglet Spark Configuration de la vue Run, définissez la connexion à un cluster Spark donné pour le Job complet. De plus, puisque le Job attend ses fichiers Jar dépendants pour l'exécution, vous devez spécifier le répertoire du système de fichiers dans lequel ces fichiers Jar sont transférés afin que Spark puisse accéder à ces fichiers :
    • Yarn mode (Yarn Client ou Yarn Cluster) :
      • Lorsque vous utilisez Google Dataproc, spécifiez un bucket dans le champ Google Storage staging bucket de l'onglet Spark configuration.

      • Lorsque vous utilisez HDInsight, spécifiez le blob à utiliser pour le déploiement du Job, dans la zone Windows Azure Storage configuration de l'onglet Spark configuration.

      • Lorsque vous utilisez Altus, spécifiez le bucket S3 ou le stockage Azure Data Lake (apercu technique) pour le déploiement du Job, dans l'onglet Spark configuration.
      • Lorsque vous utilisez d'autres distributions, utilisez le composant de configuration correspondant au système de fichiers utilisé par votre cluster. Généralement, ce système est HDFS et vous devez utiliser le tHDFSConfiguration.

    • Standalone mode : vous devez choisir le composant de configuration selon le système de fichiers que vous utilisez, comme tHDFSConfiguration ou tS3Configuration.