メイン コンテンツをスキップする 補完的コンテンツへスキップ

Apache Spark StreamingのtStandardizePhoneNumberプロパティ

これらのプロパティは、[Spark Streaming]ジョブのフレームワークで実行されているtStandardizePhoneNumberを設定するために使われます。

[Spark Streaming]tStandardizePhoneNumberコンポーネントは、データクオリティファミリーに属しています。

このコンポーネントはTalend Real-Time Big Data PlatformTalend Data Fabricで利用できます。

基本設定

[Schema] (スキーマ)および[Edit schema] (スキーマを編集)

スキーマとは行の説明のことです。処理して次のコンポーネントに渡すフィールド(カラム)数を定義します。Sparkジョブを作成する場合、フィールドの命名時は予約語のlineを避けます。

このコンポーネントでは、デフォルトカラムが提供されます。詳細は『デフォルトカラム』をご覧ください。

 

[Built-in] (組み込み): そのコンポーネントに対してのみスキーマを作成し、ローカルに保管します。

 

[Repository] (リポジトリー): スキーマは作成済みで、リポジトリーに保管されています。さまざまなプロジェクトやジョブデザインで再利用できます。

電話番号

目的の電話番号が含まれているカラムを入力データから選択します。

[Country code] (国コード)

国コード(ISO 2)が含まれているカラムを入力データから選択します。

情報メモ注:

このコンポーネントで処理する入力データは、2文字のISO国コードと共に、それに対応する目的の電話番号を提供できるものである必要があります。

[Customize] (カスタマイズ)

このチェックボックスをオンにしてカスタム国コード(ISO 2)を設定するために使われます。オンにすると、[Country code] (国コード)フィールドは無効になり、電話番号の標準化でカスタム国コードが優先されます。

たとえば、入力データに国コードが間違っている電話番号のセット、または国コードのない電話番号のセットが含まれている場合は、このチェックボックスをオンにして、標準化に必要な国コードを入力します。

[Phone number format for output] (出力する電話番号形式)

目的の電話番号を標準化するために使用する形式を選択します。利用できるオプションは以下のとおりです。

- E164

- [International] (国際)

- [National] (国内)

詳細設定

[Avoid comparison] (比較の回避)

ランタイムに入力データと出力データの間で実行されている比較を無効にする場合は、このチェックボックスを選択します。そうすることで、このコンポーネントを使用するジョブの実行処理が加速します。

グローバル変数

グローバル変数

ERROR_MESSAGE: エラーが発生した時にコンポーネントによって生成されるエラーメッセージ。これはAfter変数で、文字列を返します。この変数はコンポーネントにこのチェックボックスが存在し、[Die on error] (エラー発生時に強制終了)がオフになっている場合のみ機能します。

Flow変数はのコンポーネントの実行中に機能し、After変数はコンポーネントの実行後に機能します。

フィールドまたは式に変数を入力する場合は、Ctrl + スペースを押して変数リストにアクセスし、使用する変数を選択します。

変数の詳細は、コンテキストと変数を使用をご覧ください。

使用方法

使用ルール

このコンポーネントは、所属するSpark Streamingのコンポーネントのパレットと共に、Spark Streamingジョブを作成している場合にだけ表示されます。

このコンポーネントは中間ステップとして使用されます。

ジョブ全体でのSparkクラスターへの接続を定義するには、[Run] (実行)ビューの[Spark configuration] (Spark設定)タブを使用します。

この接続は、ジョブごとに有効になります。

TalendのSpark Streamingジョブの詳細は、Spark Streamingジョブの使い方をご覧ください。

特に明記していない限り、このドキュメンテーションのシナリオでは、標準ジョブ、つまり従来の Talend Data Integrationジョブだけを扱います。

[Spark Connection] (Spark接続)

[Run] (実行)ビューの[Spark configuration] (Spark設定)タブで、ジョブ全体でのSparkクラスターへの接続を定義します。また、ジョブでは、依存jarファイルを実行することを想定しているため、Sparkがこれらのjarファイルにアクセスできるように、これらのファイルの転送先にするファイルシステム内のディレクトリーを指定する必要があります。
  • Yarnモード(YarnクライアントまたはYarnクラスター):
    • Google Dataprocを使用している場合、[Spark configuration] (Spark設定)タブの[Google Storage staging bucket] (Google Storageステージングバケット)フィールドにバケットを指定します。

    • HDInsightを使用している場合、[Spark configuration] (Spark設定)タブの[Windows Azure Storage configuration] (Windows Azure Storage設定)エリアでジョブのデプロイメントに使用するブロブを指定します。

    • Altusを使用する場合は、[Spark configuration] (Spark設定)タブでジョブのデプロイにS3バケットまたはAzure Data Lake Storageを指定します。
    • オンプレミスのディストリビューションを使用する場合は、クラスターで使われているファイルシステムに対応する設定コンポーネントを使用します。一般的に、このシステムはHDFSになるため、tHDFSConfigurationを使用します。

  • [Standalone mode] (スタンドアロンモード): クラスターで使われているファイルシステム(tHDFSConfiguration Apache Spark BatchtS3Configuration Apache Spark Batchなど)に対応する設定コンポーネントを使用します。

    ジョブ内に設定コンポーネントがない状態でDatabricksを使用している場合、ビジネスデータはDBFS (Databricks Filesystem)に直接書き込まれます。

この接続は、ジョブごとに有効になります。

このページは役に立ちましたか?

このページまたはコンテンツに、タイポ、ステップの省略、技術的エラーなどの問題が見つかった場合は、お知らせください。改善に役立たせていただきます。