Procédure
- Double-cliquez sur le Job Map/Reduce que vous venez de créer afin de l'ouvrir dans l'espace de modélisation graphique. La Palette de composants Map/Reduce s'ouvre et des composants peuvent être barrés, car il n'ont pas de version Map/Reduce.
- Cliquez-droit sur chacun des composants en question et sélectionnez Delete afin de les supprimer.
-
Déposez un composant tHDFSInput, un
tHDFSOutput et un tJDBCOutput dans l'espace de modélisation graphique. Le
tHDFSInput lit les données à partir de
la distribution Hadoop utilisée, le tHDFSOutput écrit les données dans cette distribution et le
tJDBCOutput écrit les données dans une
base de données, par exemple, une base de données MySQL pour ce scénario.
Les deux composants de sortie remplacent les deux tLogRow pour écrire les données en sortie.
Si vous partez d'un Job vierge, déposez également un tSortRow et un tUniqRow.
- Connectez le tHDFSInput au tSortRow à l'aide d'un lien Row > Main et acceptez le schéma provenant du tSortRow.
- Connectez le tUniqRow au tHDFSOutput à l'aide d'un lien Row > Uniques et au tJDBCOutput à l'aide d'un lien Row > Duplicates.