Remplacer des valeurs et filtrer des colonnes à l'aide de composants Map/Reduce - 6.4

Processing (Integration)

author
Talend Documentation Team
EnrichVersion
6.4
EnrichProdName
Talend Big Data
Talend Big Data Platform
Talend Data Fabric
Talend Data Integration
Talend Data Management Platform
Talend Data Services Platform
Talend ESB
Talend MDM Platform
Talend Open Studio for Big Data
Talend Open Studio for Data Integration
Talend Open Studio for ESB
Talend Open Studio for MDM
Talend Real-Time Big Data Platform
task
Création et développement > Systèmes tiers > Composants Processing (Intégration)
Gouvernance de données > Systèmes tiers > Composants Processing (Intégration)
Qualité et préparation de données > Systèmes tiers > Composants Processing (Intégration)
EnrichPlatform
Studio Talend

Ce scénario s'applique uniquement aux produits Talend avec Big Data nécessitant souscription.

Pour plus d'informations concernant les technologies supportées par Talend, consultez Composants Talend.

Vous pouvez réutiliser la version Map/Reduce du Job décrit précédemment en utilisant des composants Map/Reduce. Ce Job Map/Reduce Talend génère du code Map/Reduce et s'exécute de manière native dans Hadoop.

Notez que les composants Talend Map/Reduce ne sont disponibles que si vous avez souscrit à l'une des solutions Big Data de Talend et que ce scénario ne peut être reproduit qu'avec des composants Map/Reduce.

Les données d'exemple utilisées dans ce scénario sont les mêmes que celles utilisées dans le Job décrit précédemment et se présentent comme suit :
streat;John;Kennedy;98.30$
streat;Richad;Nikson;78.23$
streat;Richard;Nikson;78.2$
streat;toto;Nikson;78.23$
streat;Richard;Nikson;78.23$
street;Georges *t;bush;99.99$
			

Etant donné que le studio Talend vous permet de convertir un Job Map/Reduce en Job Standard (non Map/Reduce), et vice-versa, vous pouvez convertir le scénario expliqué plus tôt afin de créer ce Job Map/Reduce. Ainsi, la plupart des composants utilisés peuvent garder leurs paramètres d'origine afin de réduire votre charge de travail pour la création de ce Job.

Avant de commencer ce scénario, assurez-vous de disposer des droits d'accès Hadoop nécessaires pour accéder à la distribution Hadoop utilisée. Procédez ensuite comme suit :