Apache Spark BatchのtDataUnmaskingプロパティ - Cloud - 8.0

Data privacy

Version
Cloud
8.0
Language
日本語 (日本)
Product
Talend Big Data Platform
Talend Data Fabric
Talend Data Management Platform
Talend Data Services Platform
Talend MDM Platform
Talend Real-Time Big Data Platform
Module
Talend Studio
Content
ジョブデザインと開発 > サードパーティーシステム > データクオリティコンポーネント > データプライバシーコンポーネント
データガバナンス > サードパーティーシステム > データクオリティコンポーネント > データプライバシーコンポーネント
データクオリティとプレパレーション > サードパーティーシステム > データクオリティコンポーネント > データプライバシーコンポーネント

これらのプロパティは、Spark Batchのジョブフレームワークで実行されているtDataUnmaskingを設定するために使われます。

Spark BatchtDataUnmaskingコンポーネントは、データクオリティファミリーに属しています。

基本設定

[Schema] (スキーマ)[Edit Schema] (スキーマを編集)

スキーマとは行の説明のことです。処理して次のコンポーネントに渡すフィールド(カラム)数を定義します。Sparkジョブを作成する場合、フィールドの命名時は予約語のlineを避けます。

[Sync columns] (カラムを同期)をクリックすると、ジョブで接続している先行コンポーネントからスキーマが取得されます。

スキーマを変更するには[Edit schema] (スキーマを編集)をクリックします。現在のスキーマがリポジトリータイプの場合は、3つのオプションを利用できます。

  • [View schema] (スキーマの表示): スキーマのみを表示する場合は、このオプションを選択します。

  • [Change to built-in property] (組み込みのプロパティに変更): ローカルで変更を行うためにスキーマを組み込みに変更する場合は、このオプションを選択します。

  • [Update repository connection] (リポジトリー接続をアップデート): リポジトリーに保存されているスキーマに変更を加え、変更後にそのコンテンツをすべてのジョブにプロパゲートするかどうかを決める場合は、このオプションを選択します。

    変更を現在のジョブにのみ反映する場合は、変更後、[No] (いいえ)を選択し、[Repository Content] (リポジトリーのコンテンツ)ウィンドウで再びこのスキーマのメタデータを選択します。

このコンポーネントの出力スキーマには、読み取り専用カラムORIGINAL_MARKが1つ含まれています。このカラムは、trueまたはfalseにより、レコードがそれぞれ元のレコード代替レコードであるかどうか識別されます。

 

[Built-in] (組み込み): このコンポーネントに対してのみスキーマを作成し、ローカルに保管します。

 

[Repository] (リポジトリー): スキーマは作成済みで、リポジトリーに保管されています。さまざまなプロジェクトやジョブデザインで再利用できます。

[Modifications] (変更)

テーブルで、マスクを解除するフィールドとそれらのマスクを解除する方法を定義します:

[Input Column] (入力カラム): マスクを解除するデータを含む入力フローからカラムを選択します。

ユーザー定義のパスワードと組み合わせたFF1 with AESまたはFF1 with SHA-2を使えば、tDataMaskingコンポーネントでマスクされたデータをすべてマスク解除できます。

これらの変更は、[Function] (ファンクション)カラムで選択するファンクションに基づいています。

[Category] (カテゴリー): マスク解除関数のカテゴリーをリストから選択します。

[Functions] (関数): データのマスクを解除する関数を選択します。

[Function] (ファンクション)リストから選択できるファンクションは、入力カラムのデータ型によって異なります。

[Method] (メソッド): このリストから、データをマスクするために使用したフォーマット保持暗号化(FPE)アルゴリズムFF1 with AESFF1 with SHA-2を選択します:

[FF1 with AES] (FF1およびAES)方式は、CBCモードではAdvanced Encryption Standardをベースとしています。[FF1 with SHA-2] (FF1およびSHA-2)方式は、セキュアハッシュファンクションHMAC-256に依存します。

Java 8u161は、[FF1 with AES] (FF1およびAES)方式を使用するために最低限必要なバージョンです。8u161よりも前のJavaバージョンを使ってこのFPE方式を使えるようにするには、Java Cryptography Extension (JCE)無制限強度管轄ポリシーファイルをOracle Webサイトからダウンロードします。

データをマスク解除するためには、[FF1 with AES] (FF1およびAES)メソッドと[FF1 with SHA-2] (FF1およびSHA-2)メソッドで、tDataMaskingコンポーネントでマスキングされた時に[Password or 256-bit key for FF1 methods (FF1メソッドのパスワードまたは256ビットキー)フィールドで指定されているパスワードが必要です。

FPE方式で[Replace all] (すべて置換)[Replace characters between two positions] (2つのポジション間の文字を置換)<[Replace first n digits] (最初のn桁を置換)[Replace last n digits] (最後のn桁を置換)を使う時は、アルファベットを選択できます。

tDataMaskingコンポーネントでデータをマスクするために使用するアルファベットを選択します。

[Extra Parameter] (追加パラメーター): このフィールドは一部のファンクションで使用されますが、使用されない場合は無効になります。必要に応じて、選択したファンクションの動作を決定するための数字または文字を入力します。

[Keep format] (保存形式): このファンクションは文字列でのみ使用されます。[Bank Account Unmasking] (銀行口座のマスク解除)[Credit Card Unmasking] (クレジットカードのマスク解除)[Phone Unmasking] (電話のマスク解除)、および[SSN Unmasking] (SSNのマスク解除)のカテゴリーを使う時に入力形式を維持するには、このチェックボックスをオンにします。つまり、入力にスペース、ドット('.')、ハイフン('-')、スラッシュ('/')のいずれかが含まれる場合、それらの文字は出力でも保持されます。このチェックボックスをオンにすると、[Phone Unmasking] (電話のマスキング解除)ファンクションを使う時に、入力に含まれている数字以外の文字が出力にそのままコピーされます。

詳細設定

FF1の設定

[Password or 256-bit key for FF1 methods] (FF1メソッドのパスワードまたは256ビットキー): データをマスク解除するためには、[FF1 with AES] (FF1およびAES)メソッドと[FF1 with SHA-2] (FF1およびSHA-2)メソッドで、tDataMaskingコンポーネントでマスキングされた時に[Password or 256-bit key for FF1 methods (FF1メソッドのパスワードまたは256ビットキー)フィールドで指定されているパスワードかシークレットキーが必要です。

[Use tweaks] (微調整を使用): データのマスキング中に微調整が生成された場合は、このチェックボックスをオンにします。オンにすると、[Column containing tweaks] (微調整が含まれているカラム)リストが表示されます。微調整により、レコードのすべてのデータをマスク解除できます。

[Column containing the tweaks] (微調整が含まれているカラム): [Use tweaks] (微調整を使用)チェックボックスがオンの場合に利用できます。微調整が含まれているカラムを選択します。表示されない場合は、マスキングコンポーネントによって生成された微調整が入力コンポーネントで宣言済みであることをご確認ください。

キー導出関数: データをマスキングする場合と同じキー導出関数を選択します。デフォルトでは[PBKDF2 with 300,000 iterations] (反復回数が30万回のPBKDF2)が選択されています。

[Output the original row] (元の行を出力)

このチェックボックスをオンにすると、元のデータに加えてマスクされたデータ行が出力されます。両方のデータ行を持つことは、デバッグまたはテストプロセスで役立ちます。

[Should null input return null] (nullの入力によりnullを返す)

このチェックボックスはデフォルトで選択されています。選択すると、入力値がnullの場合、コンポーネントによりnullが出力されます。それ以外の場合は、入力がnullの場合はデフォルト値、文字列値には空の文字列、数値の場合は0、日付値には現在の日付が返されます。

[Should empty input return empty] (空の入力により空を返す)

このチェックボックスをオンにすると、入力値が空の場合、コンポーネントによって入力値が返されます。それ以外の場合は、選択したファンクションが入力データに適用されます。

[Send invalid data to "Invalid" output flow] (無効なデータを"無効な"出力フローに送信)
このチェックボックスはデフォルトで選択されています。
  • オン: データをマスク解除できる場合は、メインフローに送信されます。それ以外の場合、データは「無効な」出力フローに送信されます。
  • オフ: データはメインフローに送信されます。
次の場合、データは無効と見なされます。

[tStatCatcher Statistics] (tStatCatcher統計)

このチェックボックスをオンにすると、ジョブレベルおよび各コンポーネントレベルでジョブ処理メタデータが収集されます。

使用方法

[Usage rule] (使用ルール)

このコンポーネントは中間ステップとして使用されます。

このコンポーネントは、所属するSpark Batchのコンポーネントのパレットと共に、Spark Batchジョブを作成している場合にだけ表示されます。

特に明記していない限り、このドキュメンテーションのシナリオでは、標準ジョブ、つまり従来の Talend データ統合ジョブだけを扱います。

[Spark Connection] (Spark接続)

[Run] (実行)ビューの[Spark configuration] (Spark設定)タブで、ジョブ全体でのSparkクラスターへの接続を定義します。また、ジョブでは、依存jarファイルを実行することを想定しているため、Sparkがこれらのjarファイルにアクセスできるように、これらのファイルの転送先にするファイルシステム内のディレクトリーを指定する必要があります。
  • Yarnモード(YarnクライアントまたはYarnクラスター):
    • Google Dataprocを使用している場合、[Spark configuration] (Spark設定)タブの[Google Storage staging bucket] (Google Storageステージングバケット)フィールドにバケットを指定します。

    • HDInsightを使用している場合、[Spark configuration] (Spark設定)タブの[Windows Azure Storage configuration] (Windows Azure Storage設定)エリアでジョブのデプロイメントに使用するブロブを指定します。

    • Altusを使用する場合は、[Spark configuration] (Spark設定)タブでジョブのデプロイにS3バケットまたはAzure Data Lake Storageを指定します。
    • オンプレミスのディストリビューションを使用する場合は、クラスターで使用されているファイルシステムに対応する設定コンポーネントを使用します。一般的に、このシステムはHDFSになるため、tHDFSConfigurationを使用します。

  • [Standalone mode] (スタンドアロンモード): tHDFSConfigurationtS3Configurationなど、クラスターで使われているファイルシステムに対応する設定コンポーネントを使用します。

    ジョブ内に設定コンポーネントがない状態でDatabricksを使用している場合、ビジネスデータはDBFS (Databricks Filesystem)に直接書き込まれます。

この接続は、ジョブごとに有効になります。