Apache Spark StreamingのtStandardizePhoneNumberプロパティ - 7.3

Phone number standardization

EnrichVersion
Cloud
7.3
EnrichProdName
Talend Big Data Platform
Talend Data Fabric
Talend Data Management Platform
Talend Data Services Platform
Talend MDM Platform
Talend Real-Time Big Data Platform
EnrichPlatform
Talend Studio
task
ジョブデザインと開発 > サードパーティーシステム > データクオリティコンポーネント > 標準化 > 電話番号標準化コンポーネント
データガバナンス > サードパーティーシステム > データクオリティコンポーネント > 標準化 > 電話番号標準化コンポーネント
データクオリティとプレパレーション > サードパーティーシステム > データクオリティコンポーネント > 標準化 > 電話番号標準化コンポーネント

このプロパティは[Spark Streaming]ジョブフレームワークで実行するtStandardizePhoneNumberの設定で使用されます。

[Spark Streaming]tStandardizePhoneNumberコンポーネントは、データクオリティファミリーのコンポーネントです。

このコンポーネントは、Talend Real Time Big Data PlatformおよびTalend Data Fabricで使用できます。

基本設定

[Schema] (スキーマ)および[Edit schema] (スキーマの編集)

スキーマとは行の説明のことです。処理して次のコンポーネントに渡すフィールド(カラム)数を定義します。Sparkジョブを作成する場合、フィールドの命名時は予約語のlineを避けます。

このコンポーネントでは、デフォルトカラムが提供されます。詳細は『デフォルトカラム』を参照してください。

 

Built-in (組み込み): そのコンポーネントのみのスキーマを作成して、ローカルに保存します。

 

Repository (リポジトリー): スキーマは作成済みで、リポジトリーに保管されており、さまざまなプロジェクトやジョブデザインで再利用できます。

電話番号

目的の電話番号が含まれているカラムを入力データから選択します。

[Country code] (国コード)

国コード(ISO 2)が含まれているカラムを入力データから選択します。

注:

このコンポーネントで処理する入力データは、2文字のISO国コードと共に、それに対応する目的の電話番号を提供できるものである必要があります。

[Customize] (カスタマイズ)

このチェックボックスを選択してカスタム国コード(ISO 2)を設定します。オンにすると、[Country code] (国コード)フィールドは無効になり、電話番号の標準化でカスタム国コードが優先されます。

たとえば、入力データに国コードが間違っている電話番号のセット、または国コードのない電話番号のセットが含まれている場合は、このチェックボックスを選択して、標準化に必要な国コードを入力します。

[Phone number format for output] (出力する電話番号形式)

目的の電話番号を標準化するために使用する形式を選択します。使用できるオプションは以下のとおりです。

- E164

- [International] (国際)

- [National] (国内)

詳細設定

[Avoid comparison] (比較の回避)

ランタイムに入力データと出力データの間で実行される比較を無効にするには、このチェックボックスを選択します。そうすることで、このコンポーネントを使用するジョブの実行処理が加速します。

グローバル変数

[Global Variables] (グローバル変数)

ERROR_MESSAGE: エラーが発生した時にコンポーネントによって生成されるエラーメッセージ。これはAfter変数で、文字列を返します。この変数はコンポーネントにこのチェックボックスが存在し、Die on error (エラー時強制終了)がオフになっている場合にのみ機能します。

Flow変数はコンポーネントの実行中に機能し、After変数はコンポーネントの実行後に機能します。

フィールドまたは式に変数を入れるには、Ctrl + Spaceを押して変数リストにアクセスし、リストから使用する変数を選択します。

変数の詳細については、『 Talend Studio ユーザーガイド』を参照してください。

使用方法

使用ルール

このコンポーネントは、所属するSpark Streamingコンポーネントのパレットと共に、Sparkストリーミングジョブを作成している場合にだけ表示されます。

このコンポーネントは中間ステップとして使用されます。

ジョブ全体でのSparkクラスターへの接続を定義するには、[Run] (実行)ビューの[Spark Configuration] (Spark設定)タブを使用します。

この接続は、ジョブごとに有効になります。

Talend Sparkストリーミングジョブの詳細は、 『Talend Open Studio for Big Data入門ガイド』 にある、 Talend Sparkストリーミングジョブの作成、変換、設定方法を説明しているセクションを参照してください。

特に明記していない限り、このドキュメントのシナリオでは、[Standard] (標準)ジョブ、つまり従来の Talend データ統合ジョブだけを扱います。

[Spark Connection] (Spark接続)

[Run] (実行)ビューの[Spark Configuration] (Spark設定)タブで、ジョブ全体でのSparkクラスターへの接続を定義します。また、ジョブでは、依存jarファイルを実行することを想定しているため、Sparkがこれらのjarファイルにアクセスできるように、これらのファイルの転送先にするファイルシステム内のディレクトリを指定する必要があります。
  • Yarnモード(YarnクライアントまたはYarnクラスター):
    • Google Dataprocを使用している場合、[Spark configuration] (Spark設定)タブの[Google Storage staging bucket] (Google Storageステージングバケット)フィールドにバケットを指定します。

    • HDInsightを使用している場合、[Spark configuration] (Spark設定)タブの[Windows Azure Storage configuration] (Windows Azure Storage設定)エリアでジョブのデプロイメントに使用するブロブを指定します。

    • Altusを使用する場合は、[Spark configuration] (Spark設定)タブでジョブのデプロイにS3バケットまたはAzure Data Lake Storageを指定します。
    • Quboleを使用する場合は、ジョブにtS3Configurationを追加し、QuboleでS3システム内に実際のビジネスデータを書き込みます。tS3Configurationを使用しないと、このビジネスデータはQubole HDFSシステムに書き込まれ、クラスターをシャットダウンすると破棄されます。
    • オンプレミスのディストリビューションを使用する場合は、クラスターで使用されているファイルシステムに対応する設定コンポーネントを使用します。一般的に、このシステムはHDFSになるため、tHDFSConfigurationを使用します。

  • [Standalone mode] (スタンドアロンモード): tHDFSConfigurationまたはtS3Configurationなど、クラスターで使用されているファイルシステムに対応する設定コンポーネントを使用します。

    ジョブ内に設定コンポーネントがない状態でDatabricksを使用している場合、ビジネスデータはDBFS (Databricks Filesystem)に直接書き込まれます。

この接続は、ジョブごとに有効になります。