手順
-
Studioの Integration パースペクティブで、[Repository] (リポジトリー)ツリービューの[Job Designs] (ジョブデザイン)ノードから空のSpark Batchジョブを1つ作成します。
Spark Batchジョブの作成方法の詳細は、Talend Open Studio for Big Data入門ガイドをご覧ください。
-
ワークスペース内に使用するコンポーネントの名前を入力し、表示されるリストからこのコンポーネントを選択します。このシナリオでは、コンポーネントはtHDFSConfiguration、tKuduConfiguration、tFixedFlowInput、tKuduOutput、tKuduInput、およびtLogRowになります。
tFixedFlowInputコンポーネントは、サンプルデータをデータフローにロードするために使われます。現実のケースではtFixedFlowInputの代わりにtFileInputDelimitedやtMapといった他のコンポーネントを使用して転送するデータを準備する、より洗練されたプロセスを設計できます。
- [Row] (行) > [Main] (メイン)リンクを使って、tFixedFlowInputをtKuduOutputに接続します。
- [Row] (行) > [Main] (メイン)リンクを使ってtMongoDBInputをtLogRowに接続します。
- [Trigger] (トリガー) > OnSubjobOkリンクを使ってtFixedFlowInputをtMongoDBInputに接続します。
- tHDFSConfigurationとtKuduConfigurationは接続しないでおきます。