Apache Spark Streamingの tDataUnmaskingプロパティ - 7.3

Data privacy

Version
7.3
Language
日本語
Product
Talend Big Data Platform
Talend Data Fabric
Talend Data Management Platform
Talend Data Services Platform
Talend MDM Platform
Talend Real-Time Big Data Platform
Module
Talend Studio
Content
ジョブデザインと開発 > サードパーティーシステム > データクオリティコンポーネント > データプライバシーコンポーネント
データガバナンス > サードパーティーシステム > データクオリティコンポーネント > データプライバシーコンポーネント
データクオリティとプレパレーション > サードパーティーシステム > データクオリティコンポーネント > データプライバシーコンポーネント
Last publication date
2024-04-03

これらのプロパティは、Spark Streamingジョブのフレームワークで実行されているtDataUnmaskingを設定するために使われます。

Spark StreamingtDataUnmaskingコンポーネントは、データクオリティファミリーに属しています。

基本設定

[Schema] (スキーマ)および[Edit Schema] (スキーマを編集)

スキーマとは行の説明のことです。処理して次のコンポーネントに渡すフィールド(カラム)数を定義します。Sparkジョブを作成する場合、フィールドの命名時は予約語のlineを避けます。

ジョブで接続している先行コンポーネントからスキーマを取得するためには、[Sync columns] (カラムを同期)をクリックします。

スキーマを変更するには[Edit schema] (スキーマを編集)をクリックします。現在のスキーマがリポジトリータイプの場合は、3つのオプションを利用できます。

  • [View schema] (スキーマを表示): スキーマのみを表示する場合は、このオプションを選択します。

  • [Change to built-in property] (組み込みのプロパティに変更): ローカルで変更を行うためにスキーマを組み込みに変更する場合は、このオプションを選択します。

  • [Update repository connection] (リポジトリー接続をアップデート): リポジトリーに保存されているスキーマに変更を加え、変更後にそのコンテンツをすべてのジョブにプロパゲートするかどうかを決める場合は、このオプションを選択します。変更を現在のジョブにのみ反映する場合は、変更後、[No] (いいえ)を選択し、[Repository Content] (リポジトリーコンテンツ)ウィンドウで再びこのスキーマのメタデータを選択します。

このコンポーネントの出力スキーマには、読み取り専用カラムORIGINAL_MARKが1つ含まれています。このカラムは、trueまたはfalseにより、レコードがそれぞれ元のレコード代替レコードであるかどうか識別されます。

 

[Built-in] (組み込み): そのコンポーネントに対してのみスキーマを作成し、ローカルに保管します。

 

[Repository] (リポジトリー): スキーマは作成済みで、リポジトリーに保管されています。さまざまなプロジェクトやジョブデザインで再利用できます。

[Modifications] (変更)

テーブルで、マスクを解除するフィールドとそれらのマスクを解除する方法を定義します:

[Input Column] (入力カラム): マスクを解除するデータを含む入力フローからカラムを選択します。

ユーザー定義のパスワードと組み合わせたFF1 with AESまたはFF1 with SHA-2を使えば、tDataMaskingコンポーネントでマスクされたデータをすべてマスク解除できます。

これらの変更は、[Function] (ファンクション)カラムで選択するファンクションに基づいています。

[Category] (カテゴリー): マスク解除ファンクションのカテゴリーをリストから選択します。

[Functions] (ファンクション): データのマスクを解除するファンクションを選択します。

[Function] (ファンクション)リストから選択できるファンクションは、入力カラムのデータ型によって異なります。

[Method] (メソッド): このリストから、データをマスクするために使用したフォーマット保持暗号化(FPE)アルゴリズムFF1 with AESFF1 with SHA-2を選択します:

[FF1 with AES] (FF1およびAES)方式は、CBCモードではAdvanced Encryption 標準をベースとしています。[FF1 with SHA-2] (FF1およびSHA-2)方式は、セキュアハッシュファンクションHMAC-256に依存します。

Java 8u161は、[FF1 with AES] (FF1およびAES)方式を使用するために最低限必要なバージョンです。8u161よりも前のJavaバージョンを使ってこのFPEメソッドを使えるようにするには、Java Cryptography Extension (JCE)無制限強度管轄ポリシーファイルをOracle Webサイトからダウンロードします。

データをマスク解除するには、FF1 with AESおよびFF1 with SHA-2メソッドで、tDataMaskingコンポーネントでマスクされた時に、Password for FF1 methodsフィールドで指定されたパスワードが必要です。

FPEメソッドで[Replace all] (すべて置換)、[Replace characters between two positions] (2つのポジション間の文字を置換)<[Replace n first digits] (最初のn桁を置換)、[Replace n last digits] (最後のn桁を置換)を使う時は、アルファベットを選択できます。

tDataMaskingコンポーネントでデータをマスクするために使用するアルファベットを選択します。

[Extra Parameter] (追加パラメーター): このフィールドは一部のファンクションで使用されますが、使用されない場合は無効になります。必要に応じて、選択した関数の動作を決定するための数字または文字を入力します。

[Keep format] (保存形式): このファンクションは文字列でのみ使用されます。[Bank Account Unmasking] (銀行口座のマスク解除)[Credit Card Unmasking] (クレジットカードのマスク解除)[Phone Unmasking] (電話のマスク解除)、および[SSN Unmasking] (SSNのマスク解除)のカテゴリーを使う時に入力形式を維持する場合は、このチェックボックスを選択します。つまり、入力にスペース、ドット('.')、ハイフン('-')、スラッシュ('/')のいずれかが含まれる場合、それらの文字は出力でも保持されます。このチェックボックスを選択すると、[Phone Unmasking] (電話のマスキング解除)ファンクションを使う時に、入力に含まれている数値以外の文字が出力にそのままコピーされます。

詳細設定

[Password for FF1 methods] (FF1メソッドのパスワード)

データをマスク解除するには、FF1 with AESおよびFF1 with SHA-2メソッドで、tDataMaskingコンポーネントでマスクされた時に、Password for FF1 methodsフィールドで指定されたパスワードが必要です。

[Use tweaks] (微調整を使用)

データの暗号化中に微調整が生成された場合は、このチェックボックスをオンにします。オンにすると、[Column containing tweaks] (微調整が含まれているカラム)リストが表示されます。微調整により、レコードのすべてのデータを復号化できます。

[Column containing tweaks] (微調整が含まれているカラム)

[Use tweaks] (微調整を使用)チェックボックスがオンの場合に利用できます。微調整が含まれているカラムを選択します。表示されない場合は、マスキングコンポーネントによって生成された微調整が入力コンポーネントで宣言済みであることをご確認ください。

[Output the original row] (元の行を出力)

このチェックボックスをオンにすると、元のデータに加えてマスクされたデータ行が出力されます。両方のデータ行を持つことは、デバッグまたはテストプロセスで役立ちます。

[Should null input return null] (nullの入力によりnullを返す)

このチェックボックスはデフォルトで選択されています。選択すると、入力値がnullの場合、コンポーネントによりnullが出力されます。それ以外の場合は、入力がnullの場合はデフォルト値、文字列値には空の文字列、数値の場合は0、日付値には現在の日付が返されます。

[Should empty input return empty] (空の入力により空を返す)

このチェックボックスをオンにすると、入力値が空の場合、コンポーネントによって入力値が返されます。それ以外の場合は、選択したファンクションが入力データに適用されます。

[Send invalid data to "Invalid" output flow] (無効なデータを"無効な"出力フローに送信)
このチェックボックスはデフォルトで選択されています。
  • オン: データをマスク解除できる場合は、メインフローに送信されます。それ以外の場合、データは「無効な」出力フローに送信されます。
  • オフ: データはメインフローに送信されます。
次の場合、データは無効と見なされます。

[tStatCatcher Statistics] (tStatCatcher統計)

このチェックボックスを選択すると、ジョブレベルおよび各コンポーネントレベルでジョブ処理メタデータが収集されます。

使用方法

使用ルール

このコンポーネントは、中間ステップとして使用されます。

このコンポーネントは、所属するSpark Batchのコンポーネントのパレットと共に、Spark Batchジョブを作成している場合にだけ表示されます。

特に明記していない限り、このドキュメントのシナリオでは、標準ジョブ、つまり従来の Talend データ統合ジョブだけを扱います。

[Spark Connection] (Spark接続)

[Run] (実行)ビューの[Spark configuration] (Spark設定)タブで、ジョブ全体でのSparkクラスターへの接続を定義します。また、ジョブでは、依存jarファイルを実行することを想定しているため、Sparkがこれらのjarファイルにアクセスできるように、これらのファイルの転送先にするファイルシステム内のディレクトリーを指定する必要があります。
  • Yarnモード(YarnクライアントまたはYarnクラスター):
    • Google Dataprocを使用している場合、[Spark configuration] (Spark設定)タブの[Google Storage staging bucket] (Google Storageステージングバケット)フィールドにバケットを指定します。

    • HDInsightを使用している場合、[Spark configuration] (Spark設定)タブの[Windows Azure Storage configuration] (Windows Azure Storage設定)エリアでジョブのデプロイメントに使用するブロブを指定します。

    • Altusを使用する場合は、[Spark configuration] (Spark設定)タブでジョブのデプロイにS3バケットまたはAzure Data Lake Storageを指定します。
    • Quboleを使用する場合は、ジョブにtS3Configurationを追加し、QuboleでS3システム内に実際のビジネスデータを書き込みます。tS3Configurationを使用しないと、このビジネスデータはQubole HDFSシステムに書き込まれ、クラスターをシャットダウンすると破棄されます。
    • オンプレミスのディストリビューションを使用する場合は、クラスターで使われているファイルシステムに対応する設定コンポーネントを使用します。一般的に、このシステムはHDFSになるため、tHDFSConfigurationを使用します。

  • [Standalone mode] (スタンドアロンモード): クラスターで使われているファイルシステム(tHDFSConfiguration Apache Spark BatchtS3Configuration Apache Spark Batchなど)に対応する設定コンポーネントを使用します。

    ジョブ内に設定コンポーネントがない状態でDatabricksを使用している場合、ビジネスデータはDBFS (Databricks Filesystem)に直接書き込まれます。

この接続は、ジョブごとに有効になります。