メイン コンテンツをスキップする 補完的コンテンツへスキップ

Kuduジョブのデータフローを設計する

手順

  1. Studio TalendIntegrationパースペクティブで、[Repository] (リポジトリー)ツリービューの[Job Designs] (ジョブデザイン)ノードから空のSpark Batchジョブを1つ作成します。
    Spark Batchジョブの作成方法は、Sparkジョブを作成をご覧ください。
  2. ワークスペース内に使用するコンポーネントの名前を入力し、表示されるリストからこのコンポーネントを選択します。このシナリオでは、コンポーネントは、tHDFSConfigurationtKuduConfigurationtFixedFlowInputtKuduOutputtKuduInput、およびtLogRowになります。
    tFixedFlowInputコンポーネントは、サンプルデータをデータフローにロードするために使われます。現実のケースではtFixedFlowInputの代わりにtFileInputDelimitedtMapといった他のコンポーネントを使用して転送するデータを準備する、より洗練されたプロセスを設計できます。
  3. [Row] (行) > [Main] (メイン)リンクを使って、tFixedFlowInputtKuduOutputに接続します。
  4. [Row] (行) > [Main] (メイン)リンクを使ってtMongoDBInputtLogRowに接続します。
  5. [Trigger] (トリガー) > OnSubjobOkリンクを使ってtFixedFlowInputtMongoDBInputに接続します。
  6. tHDFSConfigurationtKuduConfigurationは接続しないでおきます。

このページは役に立ちましたか?

このページまたはコンテンツに、タイポ、ステップの省略、技術的エラーなどの問題が見つかった場合は、お知らせください。改善に役立たせていただきます。