始める前に
-
ソースデータを保管するシステムへの接続が作成済みであること。
ここでは、データベース接続を使用します。
-
ソースデータを保管するデータセットが追加済みであること。
filter-python-customers.zipファイルをダウンロードして抽出します。リードデータ(ID、名前、収益など)が含まれています。
-
接続および処理済みデータを保管する関連データセットも作成済みであること。
ここでは、Amazon S3に保存されたファイルとHDFSに保存されたファイルを使用します。
手順
-
[Pipelines] (パイプライン)ページで[Add pipeline] (パイプラインを追加)をクリックします。新しいパイプラインが開きます。
-
パイプラインに意味のある名前を付けます。
例
リードの複製および処理
-
[ADD SOURCE] (ソースを追加)をクリックしてパネルを開きます。このパネルで、ソースデータ(この場合は顧客のリスト)を選択できます。
-
データセットを選択し、[Select] (選択)をクリックしてパイプラインに追加できるようにします。
必要であれば名前を変更します。
-
をクリックし、パイプラインにReplicateプロセッサーを追加します。フローが複製され、設定パネルが開きます。
-
プロセッサーに意味のある名前を付けます。
例
replicate leads
-
パイプライン上部の[ADD DESTINATION] (デスティネーションを追加)項目をクリックしてパネルを開くと、データをクラウドに保持する[Dataset] (データセット)を選択できます(Amazon S3)。
-
デスティネーションに意味のある名前を付けます。
例
store in cloud
-
パイプラインの下にある[ADD DESTINATION] (デスティネーションを追加)項目の横にあるをクリックし、Filterプロセッサーを追加します。
-
プロセッサーに意味のある名前を付けます。
例
filter on lead revenues
-
[Filters] (フィルター)エリアで次の操作を行います。
-
[Input] (入力)リストで.Revenueを選択し、この値に基づいてリードをフィルタリングします。
-
レコードのフィルタリング時にファンクションを適用したくないので、[Optionally select a function to apply] (適用するファンクションをオプションとして選択)リストで[None] (なし)を選択します。
-
70000ドル超の売上のリードをフィルタリングする場合は、[Operator] (オペレーター)リストで>=を選択し、[Value] (値)リストに70000と入力します。
-
[Save] (保存)をクリックして設定を保存します。
-
(オプション) Filterプロセッサープレビューを表示し、フィルタリング操作後のデータを確認します。
例
-
パイプライン下部にある[ADD DESTINATION] (デスティネーションを追加)項目をクリックしてパネルを開くと、データをオンプレミス(HDFS)に保持するデータセットを選択し、意味のある名前を付けることができます。
例
store on premises
-
Talend Cloud Pipeline Designerの上部ツールバーで[Run] (実行)ボタンをクリックするとパネルが開き、実行プロファイルを選択できるようになります。
-
リストで実行プロファイルを選択し(詳細は実行プロファイルをご覧ください)、[Run] (実行)をクリックしてパイプラインを実行します。
タスクの結果
パイプラインは実行中となり、レコードは複製されてフィルタリングされ、出力フローは指定のターゲットシステムに送信されます。