Access
Accessのコンポーネント
tAccessBulkExec | Accessデータベースで挿入操作を実行する際にパフォーマンスが向上します。 |
tAccessClose | 占有されているリソースを解放するために、Accessデータベースへのアクティブな接続を閉じます。 |
tAccessCommit | すべての行またはバッチごとに実行するのではなく、一意の接続を使い、1つのグローバルトランザクションで一度にコミットするため、パフォーマンスが向上します。 |
tAccessConnection | 後続のサブジョブで再利用できる、指定したデータベースへの接続を開きます。 |
tAccessInput | データベースを読み取り、クエリーに基づいてフィールドを抽出します。 |
tAccessOutput | データベースでのエントリーの書き込み、アップデート、変更、抑制を行います。 |
tAccessOutputBulk | Accessデータベースへのフィードに使われるデータを含むファイルを準備します。 |
tAccessOutputBulkExec | Accessデータベースで、提供されたデータに対して挿入アクションを実行します。 |
tAccessRollback | 接続されたデータベースのトランザクションのコミットをキャンセルして、トランザクションの一部が意図せずにコミットされることを防ぎます。 |
tAccessRow | 指定したデータベースに対して記述されたSQLクエリーを実行します。 |
Accessのシナリオ
Amazon Aurora
Amazon Auroraのコンポーネント
tAmazonAuroraInvalidRows | 特定のデータクオリティ(正規表現)またはデータクオリティルール(ビジネスルール)に対して、Amazon Auroraデータベース行をチェックします。サポートされているのはMySQLのみです。 |
tAmazonAuroraValidRows | 特定のデータクオリティ(正規表現)またはデータクオリティルール(ビジネスルール)に対して、Amazon Auroraデータベース行をチェックします。サポートされているのはMySQLのみです。 |
tAmazonAuroraClose | Amazon Auroraデータベースインスタンスへのアクティブな接続を閉じて、占有されているリソースを解放します。 |
tAmazonAuroraCommit | すべての行またはバッチごとに実行するのではなく、一意の接続を使い、1つのグローバルトランザクションで一度にコミットするため、パフォーマンスが向上します。 |
tAmazonAuroraConnection | Amazon Auroraの他のコンポーネントで再利用できるAmazon Auroraデータベースインスタンスへの接続を開きます。 |
tAmazonAuroraInput | Amazon Auroraデータベースを読み取り、クエリーに基づいてフィールドを抽出します。 |
tAmazonAuroraOutput | Amazon Auroraデータベースでのエントリーの書き込み、アップデート、変更、抑制を行います。 |
tAmazonAuroraRollback | エラーが発生した場合に、Amazon Auroraデータベースで行われた変更をロールバックして、部分的なトランザクションコミットを防ぎます。 |
tAmazonAuroraRow | 指定されたAmazon Auroraデータベースのテーブルでクエリーステートメントを実行します。 |
Amazon Auroraのシナリオ
Amazon DocumentDB
Amazon DocumentDBのコンポーネント
tAmazonDocumentDB | Amazon DocumentDBデータベースにあるコレクションで定義されているアクションを実行します。 |
tAmazonDocumentDBClose | Amazon DocumentDBデータベースへの接続を閉じます。 |
tAmazonDocumentDBConnection | AmazonDocumentDBデータベースへの接続を作成し、その接続を他のコンポーネントで再利用します。 |
tAmazonDocumentDBInput | Amazon DocumentDBデータベースのコレクションからレコードを取得し、後続のコンポーネントに転送して表示または保存します。 |
Amazon DynamoDB
Amazon DynamoDBのコンポーネント
tDynamoDBConfiguration | 他のDynamoDBのコンポーネントで再利用される接続情報と認証情報を保管します。 |
tDynamoDBLookupInput | スキーマ定義に対応する必要がある厳密に定義された順序でデータベースクエリーを実行します。 |
tDynamoDBInput | Amazon DynamoDBテーブルからデータを取得し、変換のために次のコンポーネントに送信します。 |
tDynamoDBOutput | Amazon DynamoDBテーブルのデータを作成、アップデート、削除します。 |
Amazon DynamoDBのシナリオ
Amazon EMR
Amazon EMRのコンポーネント
tAmazonEMRListInstances | Amazon EMR (Elastic MapReduce)上のクラスター内のインスタンスグループに関する詳細をリスト表示します。 |
tAmazonEMRManage | Amazon EMR (Elastic MapReduce)でクラスターを起動または終了します。 |
tAmazonEMRResize | Amazon EMR(Elastic MapReduce)のクラスター内のタスクインスタンスグループを追加またはサイズ変更します。 |
Amazon EMRのシナリオ
Amazon EMR distribution
Amazon EMR distributionのシナリオ
Amazon MySQL
Amazon MySQLのコンポーネント
tAmazonMysqlClose | 接続されたDBでコミットされたトランザクションをクローズします。 |
tAmazonMysqlCommit | すべての行またはバッチごとに実行するのではなく、一意の接続を使い、1つのグローバルトランザクションで一度にコミットするため、パフォーマンスが向上します。 |
tAmazonMysqlConnection | 後続のサブジョブで再利用できる、指定したデータベースへの接続を開きます。 |
tAmazonMysqlInput | データベースを読み取り、クエリーに基づいてフィールドを抽出します。 |
tAmazonMysqlOutput | データベースでのエントリーの書き込み、アップデート、変更、抑制を行います。 |
tAmazonMysqlRollback | 接続されたデータベースのトランザクションのコミットをキャンセルして、トランザクションの一部が意図せずにコミットされることを防ぎます。 |
tAmazonMysqlRow | 指定したデータベースに対して記述されたSQLクエリーを実行します。 |
Amazon Oracle
Amazon Oracleのコンポーネント
tAmazonOracleClose | 接続されたデータベースでコミットされたトランザクションをクローズします。 |
tAmazonOracleCommit | すべての行またはバッチごとに実行するのではなく、一意の接続を使い、1つのグローバルトランザクションで一度にコミットするため、パフォーマンスが向上します。 |
tAmazonOracleConnection | 後続のサブジョブで再利用できる、指定したデータベースへの接続を開きます。 |
tAmazonOracleInput | データベースを読み取り、クエリーに基づいてフィールドを抽出します。 |
tAmazonOracleOutput | データベースでのエントリーの書き込み、アップデート、変更、抑制を行います。 |
tAmazonOracleRollback | 接続されたデータベースのトランザクションのコミットをキャンセルして、トランザクションの一部が意図せずにコミットされることを防ぎます。 |
tAmazonOracleRow | 指定したデータベースに対して記述されたSQLクエリーを実行します。 |
Amazon Redshift
Amazon Redshiftのコンポーネント
tRedshiftConfiguration | Redshiftデータベースへの接続設定を同じジョブで再利用します。 |
tRedshiftLookupInput | Redshiftデータベースを読み取り、クエリーに基づいてフィールドを抽出します。 |
tAmazonRedshiftManage | Amazon Redshiftクラスターとスナップショットを管理します。 |
tRedshiftBulkExec | Amazon S3、Amazon EMRクラスター、Amazon DynamoDB、またはリモートホストからAmazon Redshiftにデータをロードします。 |
tRedshiftClose | 接続されたDBでコミットされたトランザクションをクローズします。 |
tRedshiftCommit | パフォーマンスが向上します。 |
tRedshiftConnection | 後続のサブジョブで再利用できる、指定したデータベースへの接続を開きます。 |
tRedshiftInput | 抽出したデータに変更を加えることができるように、データベースからデータを読み取り、クエリーに基づいてフィールドを抽出します。 |
tRedshiftOutput | データベース内のデータの書き込み、アップデート、変更、削除を行います。 |
tRedshiftOutputBulk | tRedshiftBulkExecがAmazon Redshiftにフィードするために使用できる区切り付き/CSVファイルを準備します。 |
tRedshiftOutputBulkExec | 提供されたデータに対して挿入操作を実行します。 |
tRedshiftRollback | Redshiftデータベースのトランザクションのコミットをキャンセルして、トランザクションの一部が意図せずにコミットされることを防ぎます。 |
tRedshiftRow | クエリーとデータベースの性質に応じて、実際のDBストラクチャーやデータに対して作用します(ただし、データは処理されません)。 |
tRedshiftUnload | Amazon RedshiftのデータをAmazon S3のファイルにアンロードします。 |
Amazon Redshiftのシナリオ
Amazon S3
Amazon S3のコンポーネント
tS3Configuration | 同じジョブ内でのS3への接続設定を再使用します。使用するSparkクラスターはこの設定を読み取って最終的にS3に接続します。 |
tS3BucketCreate | Amazon S3にバケットを作成します。 |
tS3BucketDelete | Amazon S3から空のバケットを削除します。 |
tS3BucketExist | 指定されたバケットがAmazon S3に存在するかどうかを確認します。 |
tS3BucketList | Amazon S3のすべてのバケットをリスト表示します。 |
tS3Close | Amazon S3への接続をシャットダウンし、ネットワークリソースを解放します。 |
tS3Connection | データを保管および取得するAmazon S3への接続を確立します。 |
tS3Copy | Amazon S3オブジェクトを元のバケットから先のバケットにコピーします。 |
tS3Delete | Amazon S3からファイルを削除します。 |
tS3Get | Amazon S3からファイルを取得します。 |
tS3List | バケット/ファイルのプレフィックス設定に基づいてAmazon S3のファイルをリスト表示します。 |
tS3Put | ローカルファイルまたはキャッシュメモリからストリーミングモードでAmazon S3にデータをアップロードします。 |
Amazon S3のシナリオ
Amazon SQS
Amazon SQSのコンポーネント
tSQSConnection | 他のSQSのコンポーネントで再利用できるAmazonSimple QueueServiceへの接続を開きます。 |
tSQSInput | Amazon SQS(Simple Queue Service)キューから、最大10メッセージの1つ以上のメッセージを取得します。 |
tSQSMessageChangeVisibility | Amazon SQS (Simple Queue Service)キュー内の指定したメッセージの表示タイムアウトを変更します。 |
tSQSMessageDelete | 指定したメッセージをAmazon SQS (Simple Queue Service)キューから削除します。 |
tSQSOutput | 1つまたは複数のメッセージをAmazon SQS (Simple Queue Service)キューに送付します。 |
tSQSQueueAttributes | 指定されたAmazon SQS(Simple Queue Service)キューの属性を取得します。 |
tSQSQueueCreate | 新しいAmazon SQS (Simple Queue Service)キューを作成します。 |
tSQSQueueDelete | Amazon SQS (Simple Queue Service)キューを削除します。 |
tSQSQueueList | 指定されたリージョンのAmazonSQS (Simple Queue Service)キューのURLを繰り返してリスト表示します。 |
tSQSQueuePurge | Amazon SQS (Simple Queue Service)キュー内のメッセージを消去します。 |
Amazon SQSのシナリオ
Apache log
Apache logのコンポーネント
tApacheLogInput | Apache HTTPサーバーのアクセスログファイルの読み取り |
Apache logのシナリオ
Archive/Unarchive
Archive/Unarchiveのコンポーネント
tFileArchive | 1つ以上のファイルまたはフォルダーから新しいzip、gzip、またはtar.gzアーカイブファイルを作成します。 |
tFileUnarchive | * .tar.gz、* .tgz、* .tar、* .gz、* .zipのいずれかの形式でアーカイブファイルをさらに処理するために圧縮解除します。 |
Archive/Unarchiveのシナリオ
ARFF
ARFFのコンポーネント
tFileInputARFF | ARFFファイルを行ごとに読み取り、フィールドに分割し、スキーマで定義されているフィールドを次のコンポーネントに送信します。 |
tFileOutputARFF | 定義されたスキーマに従って編成されたデータを保持するARFFファイルを書き込みます。 |
ARFFのシナリオ
AS400
AS400のコンポーネント
tAS400Close | 接続されたデータベースでコミットされたトランザクションをクローズします。 |
tAS400Commit | すべての行またはバッチごとに実行するのではなく、一意の接続を使い、1つのグローバルトランザクションで一度にコミットするため、パフォーマンスが向上します。 |
tAS400Connection | 後続のサブジョブで再利用できる、指定したデータベースへの接続を開きます。 |
tAS400Input | データベースを読み取り、クエリーに基づいてフィールドを抽出します。 |
tAS400LastInsertId | AS/400テーブルに最後に挿入されたレコードのプライマリキー値を取得します。 |
tAS400Output | データベースでのエントリーの書き込み、アップデート、変更、抑制を行います。 |
tAS400Rollback | 接続されたデータベースのトランザクションのコミットをキャンセルして、トランザクションの一部が意図せずにコミットされることを防ぎます。 |
tAS400Row | 指定したデータベースに対して記述されたSQLクエリーを実行します。 |
AS400のシナリオ
Avro
Avroのコンポーネント
tAvroInput | 他のコンポーネントがレコードを処理できるように、特定のAvro形式のファイルからレコードを抽出します。 |
tAvroOutput | このコンポーネントの直前にある処理コンポーネントからデータフローを受け取って、特定の分散ファイルシステム上の Avroファイルにデータを書き込みます。 |
tAvroStreamInput | 指定されたディレクトリーをリッスンし、作成されたAvroファイルからデータを読み取り、このデータを次のコンポーネントに送信します。 |
Azure Data Lake Store
Azure Data Lake Storeのコンポーネント
tAzureAdlsGen2Connection | 他のAzure ADLS Gen2のコンポーネント用のAzureストレージアカウントを使い、ADLS Gen2ファイルシステムへの接続を作成します。 |
tAzureAdlsGen2Delete | AzureストレージアカウントのADLS Gen2ファイルシステム内のファイル、および必要に応じてはディレクトリーを削除します。 |
tAzureAdlsGen2Get | AzureストレージアカウントのADLS Gen2ファイルシステム内でファイルをダウンロードし、ローカルマシンに保存します。また、このコンポーネントは、ファイルをダウンロードしながらリモートのディレクトリーストラクチャーをローカルマシンに同期する機能を提供しています。 |
tAzureAdlsGen2Input | Azure StorageアカウントのADLS Gen2ファイルシステムからデータを取得し、そのデータを、[Main] (メイン)>[Row] (行)リンクを介して接続されている後続のコンポーネントに渡します。 |
tAzureAdlsGen2Output | 着信データを、指定された形式でAzure StorageアカウントのADLS Gen2ファイルシステムにアップロードします。 |
tAzureAdlsGen2Put | AzureストレージアカウントのADLS Gen2ファイルシステムに、ローカルファイルをアップロードします。 |
tAzureFSConfiguration | Sparkが特定のAzureファイルシステムに接続するための認証情報を提供します。 |
Azure Data Lake Storeのシナリオ
Azure Storage Blob
Azure Storage Blobのコンポーネント
tAzureFSConfiguration | Sparkが特定のAzureファイルシステムに接続するための認証情報を提供します。 |
tAzureStorageConnection | 認証とプロトコル情報を使って、Microsoft Azure Storageシステムへの接続を作成します。この接続は、他のAzure Storageのコンポーネントで再利用できます。 |
tAzureStorageContainerCreate | 指定されたAzure StorageアカウントのAzure blob(Binary Large Object)を保持するために使用される新しいストレージコンテナーを作成します。 |
tAzureStorageContainerDelete | 特定のストレージアカウントのスペースからの特定のblobコンテナーの削除を自動化します。 |
tAzureStorageContainerExist | 特定のblobコンテナーがストレージアカウント内に存在するかどうかの検証を自動化します。 |
tAzureStorageContainerList | 特定のAzure Storageアカウント内のすべてのコンテナーをリスト表示します。 |
tAzureStorageDelete | 指定されたblobフィルターに従って、Azure Storageアカウントの指定されたコンテナーからblobを削除します。 |
tAzureStorageGet | blobの仮想階層に適用された指定のフィルターに従って、Azure Storageアカウントの特定のコンテナーからblobを取得し、選択したblobをローカルフォルダーに書き込みます。 |
tAzureStorageList | 指定されたblobフィルターに従って、指定されたコンテナー内のblobをリスト表示します。 |
tAzureStoragePut | Azure Storageアカウントの特定のコンテナーにローカルファイルをアップロードします。 |
Azure Storage Blobのシナリオ
Azure Storage Queue
Azure Storage Queueのコンポーネント
tAzureStorageConnection | 認証とプロトコル情報を使って、Microsoft Azure Storageシステムへの接続を作成します。この接続は、他のAzure Storageのコンポーネントで再利用できます。 |
tAzureStorageQueueCreate | 指定されたAzure Storageアカウントの下に新しいキューを作成します。 |
tAzureStorageQueueDelete | 特定のAzure Storageアカウントで指定されたキューを完全に削除します。 |
tAzureStorageQueueInput | Azureキューの前から1つまたは複数のメッセージを取得します。 |
tAzureStorageQueueInputLoop | 無限ループを実行して、Azureキューの前からメッセージを取得します。 |
tAzureStorageQueueList | 指定されたAzure Storageアカウントに関連付けられているすべてのキューを返します。 |
tAzureStorageQueueOutput | Azureキューの後ろにメッセージを追加します。 |
tAzureStorageQueuePurge | Azureキュー内のメッセージを消去します。 |
Azure Storage Table
Azure Storage Tableのコンポーネント
tAzureStorageConnection | 認証とプロトコル情報を使って、Microsoft Azure Storageシステムへの接続を作成します。この接続は、他のAzure Storageのコンポーネントで再利用できます。 |
tAzureStorageInputTable | Azure Storageテーブルから、指定したフィルター条件を満たす一連のエンティティを取得します。 |
tAzureStorageOutputTable | 指定されたAzure Storageテーブルで定義されたアクションを実行し、前のコンポーネントからの受信データに基づいて、テーブル内のエンティティを挿入、置換、マージ、または削除します。 |
Azure Storage Tableのシナリオ
Azure Synapse Analytics
Azure Synapse Analyticsのコンポーネント
tAzureSynapseBulkExec | Azure Blob StorageまたはAzure Data Lake Storageから Azure Synapse Analyticsテーブルにデータをロードします。 |
tAzureSynapseClose | Azure Synapse Analyticsデータベースへのアクティブな接続を閉じます。 |
tAzureSynapseCommit | すべての行またはバッチごとに実行するのではなく、1つのグローバルトランザクションで一度にコミットするため、パフォーマンスが向上します。 |
tAzureSynapseConnection | Azure Synapse Analyticsデータベースへのアクティブな接続を開きます。 |
tAzureSynapseInput | Azure SQL Data Warehouseデータベースからのクエリーに基づいてデータを読み取り、フィールドを抽出します。 |
tAzureSynapseOutput | Azure SQL Data Warehouseデータベースでのエントリーの書き込み、アップデート、変更、抑制を行います。 |
tAzureSynapseRollback | エラーが発生した場合に部分的なトランザクションコミットを防ぐために、接続されているAzure SQL Data Warehouseデータベースのトランザクションコミットをキャンセルします。 |
tAzureSynapseRow | Azure Synapse Analyticsデータベースに記述されたSQLクエリーを実行します。 |
Bonita
Bonitaのコンポーネント
tBonitaDeploy | 特定のBonitaプロセスをBonitaランタイムにデプロイします。 |
tBonitaInstantiateProcess | Bonita Runtimeエンジンにデプロイされた特定のプロセスのインスタンスを開始します。 |
Bonitaのシナリオ
Box
Boxのコンポーネント
tBoxv2Connection | Boxの他のコンポーネントが再利用できるBox接続を作成します。 |
tBoxv2Copy | Boxから特定のフォルダーまたはファイルをコピーまたは移動します。 |
tBoxv2Delete | Boxフォルダーの下にあるファイルとフォルダーを削除します。 |
tBoxv2Get | 選択したファイルをBoxアカウントからダウンロードします。 |
tBoxv2Input | Boxフォルダーに保存されているファイルからデータを読み取り、後続のコンポーネントにそのデータを渡します。 |
tBoxv2List | Boxの指定フォルダーにあるファイルやフォルダーに関する情報をリスト表示します。 |
tBoxv2Output | Boxフォルダーにあるファイルに、指定された形式でデータを書き込みます。 |
tBoxv2Put | Boxアカウントにファイルをアップロードします。 |
tBoxConnection | Boxの他のコンポーネントが再利用できるBox接続を作成します。 |
tBoxCopy | Boxから特定のフォルダーまたはファイルをコピーまたは移動します。 |
tBoxDelete | Boxから特定のフォルダーまたはファイルを削除します。 |
tBoxGet | 選択したファイルをBoxアカウントからダウンロードします。 |
tBoxList | Box内の指定されたディレクトリーに保管されているファイルをリスト表示します。 |
tBoxPut | Boxアカウントにファイルをアップロードします。 |
Boxのシナリオ
Buffer
Bufferのコンポーネント
tBufferInput | 別のサブジョブで処理するなどの目的で、tBufferOutputコンポーネントでバッファーデータを取得しします。 |
tBufferOutput | たとえば、Webサービスを使用して後でアクセスするために、バッファーのデータを収集します。 |
Bufferのシナリオ
Business rules
Business rulesのコンポーネント
Business rulesのシナリオ
Cassandra
Cassandraのコンポーネント
tCassandraConfiguration | 同じジョブでCassandraサーバーへの接続設定を再利用します。 |
tCassandraLookupInput | Cassandraキースペースの標準またはスーパーカラムファミリーからデータを抽出し、データに変更を適用します。 |
tCassandraBulkExec | Cassandraカラムファミリーへの挿入操作時のパフォーマンスを改善します。 |
tCassandraClose | Cassandraサーバーへの接続を切断して、占有されているリソースを解放します。 |
tCassandraConnection | 作成するCassandraサーバーへの接続の再利用を有効にします。 |
tCassandraInput | Cassandraキースペースの標準またはスーパーカラムファミリーからデータを抽出し、データに変更を適用します。 |
tCassandraOutput | Cassandraキースペースのカラムファミリーにデータを書き込んだり、そこからデータを削除したりします。 |
tCassandraOutputBulk | 大きなサイズのSSTableのプレパレーションを行い、このSSTableをCassandraキースペースのカラムファミリーにロードする前に、必要に合わせて処理します。 |
tCassandraOutputBulkExec | Cassandraキースペースのカラムファミリーへの挿入操作時のパフォーマンスを改善します。 |
tCassandraRow | クエリーとデータベースの性質に応じて、実際のDB構造やデータに対して作用します。 |
Cassandraのシナリオ
Change Data Capture
Change Data Captureのコンポーネント
tAS400CDC | データの抽出と転送のニーズに対応します。 |
tDB2CDC | ソース運用データに対して行われた変更を抽出し、データベースCDCビューを使って、ターゲットシステムで使えるようにします。 |
tInformixCDC | 前回の抽出以降に変更されたソースシステムからデータを抽出し、別のシステムに転送します。 |
tMSSQLCDC | ソース運用データに加えられた変更を抽出し、データベースCDCビューを使ってターゲットシステムで利用できるようにします。 |
tMysqlCDC | ソース運用データに加えられた変更のみを抽出し、データベースCDCビューを使用してターゲットシステムで利用できるようにします。 |
tOracleCDC | 前回の抽出以降に変更されたソースシステムデータを抽出し、別のシステムに転送します。 |
tOracleCDCOutput | Oracle XStream CDCモードでデータの変更を同期します。 |
tPostgresqlCDC | データの抽出と転送のニーズに対応し、ソース運用データに対して行われた変更のみを抽出し、データベースCDCビューを使って、ターゲットシステムで利用できるようにします。 |
tSybaseCDC | 前回の抽出以降に変更されたソースシステムデータを抽出し、別のシステムに転送します。 |
tTeradataCDC | 前回の抽出以降に変更されたソースシステムデータを抽出し、CDCトリガーモードを使用して別のシステムに転送します。 |
Change Data Captureのシナリオ
Chart
Chartのコンポーネント
tBarChart | テクニカル分析を容易にするために、入力データから棒グラフを生成します。 |
tLineChart | 入力フローからデータを読み取り、そのデータをPNG画像ファイルの折れ線グラフに変換して、テクニカル分析を容易にします。 |
Chartのシナリオ
Cloud
Cloudのコンポーネント
tCloudStart | Amazon EC2 (Amazon Elastic Compute Cloud)でインスタンスを開始します。 |
tCloudStop | Amazon EC2 (Amazon Elastic Compute Cloud)で起動されたインスタンスのステータスを変更します。 |
CombinedSQL
CombinedSQLのコンポーネント
tCombinedSQLAggregate | 値または計算に基づいて行列のセットを提供します。 |
tCombinedSQLFilter | ソーステーブルに基づいてカラムを再編成、削除、または追加し、フィルター条件を使って特定のデータソースをフィルタリングすることにより、データをフィルタリングします。 |
tCombinedSQLInput | スキーマ定義に基づいてデータベーステーブルからフィールドを抽出します。 |
tCombinedSQLOutput | 着信フローから既存のデータベーステーブルにレコードを挿入します。 |
CombinedSQLのシナリオ
Context
Contextのコンポーネント
tContextDump | 現在のジョブのコンテキストセットアップをフラットファイルやデータベーステーブルなどにコピーします。これらはtContextLoadで使えます。 |
tContextLoad | フローからコンテキストをロードします。 |
Contextのシナリオ
CosmosDB
CosmosDBのコンポーネント
tCosmosDBSQLAPIInput | SQL APIを介し、Cosmosデータベースコレクションからデータを取得します。 |
tCosmosDBSQLAPIOutput | SQL APIを介して、前のコンポーネントからの入力フローに基づいてCosmosデータベースコレクションでドキュメントを挿入、アップデート、アップサート、削除します。 |
tCosmosDBBulkLoad | データファイルを異なる形式(CSV、TSV、またはJSON)で指定されたCosmosデータベースにインポートし、データの処理を行います。 |
tCosmosDBConnection | CosmosDBデータベースへの接続を作成し、その接続を他のコンポーネントで再利用します。 |
tCosmosDBInput | ドキュメントの検索条件となるフィールドにマッチするドキュメントのクエリーを行い、Cosmosデータベースコレクションから特定のドキュメントを取得します。 |
tCosmosDBOutput | ジョブで、前のコンポーネントからの入力フローに基づいてCosmosデータベースコレクションでドキュメントを挿入、アップデート、アップサート、削除します。 |
tCosmosDBRow | Cosmosデータベースのコマンドを実行します。 |
CosmosDBのシナリオ
Couchbase
Couchbaseのコンポーネント
tCouchbaseDCPInput | ストリーミングプロトコルである[Database Change Protocol (DCP)] (データベース変更プロトコル(DCP))の下で、Couchbaseデータベースからドキュメントを照会します。 |
tCouchbaseDCPOutput | ストリーミングプロトコルである[Database Change Protocol] (データベース変更プロトコル(DCP))の下で、先行するコンポーネントからの受信フラットデータに基づいて、Couchbaseデータベース内のドキュメントをアップサートします。 |
tCouchbaseInput | Couchbaseデータベースからドキュメントをクエリーします。 |
tCouchbaseOutput | 前のコンポーネントからの受信フラットデータに基づいて、Couchbaseデータベース内のドキュメントをアップサートします。 |
Couchbaseのシナリオ
CyberArk
CyberArkのコンポーネント
tCyberarkInput | CyberArkボールトに保管されているシークレットオブジェクトのコンテンツ(通常はパスワード)をランタイムで取得します。取得されたコンテンツはAfter変数であるSECRETに格納され、ジョブにあるどの後続のコンポーネントからでも参照できます。同コンテンツはまた、[Row] (行) > [Main] (メイン)接続を使い、secretというカラムで後続のコンポーネントに渡すこともできます。 |
CyberArkのシナリオ
Data mapping
Data mappingのコンポーネント
tHConvertFile | Talend Data Mapperストラクチャーを使い、1つの表記から別の表記への変換を、Spark Batch実行として実行します。 |
tHMap | MappingパースペクティブにあるTalend Data Mapperの機能を利用して、異なる入力と出力の間で変換(マップと呼ばれる)を行います。 |
tHMapFile | Talend Data Mapperマップを実行します。この場合、Spark Batch実行として入力ストラクチャーと出力ストラクチャーが異なる場合があります。 |
tHMapInput | Talend Data Mapperマップを実行します。この場合、Spark Batch実行として入力構造と出力構造が異なる場合があります。また、ダウンストリームコンポーネントで使うデータを送信します。 |
tHMapRecord | Talend Data Mapperマップを実行します。この場合、Spark Streaming実行として入力ストラクチャーと出力ストラクチャーが異なる場合があります。 |
Data mappingのシナリオ
Data Preparation
Data Preparationのコンポーネント
tDataprepRun | 標準データインテグレーションジョブでTalend Data Preparationを使って作成したプレパレーションを適用します。 |
tDatasetInput | Talend Data Preparationデータセットのデータでフローを作成します。 |
tDatasetOutput | Talend Data Preparationでデータセットを作成します。 |
Data Preparationのシナリオ
Data Quality
Address 標準ization
Address 標準izationのコンポーネント
tAddressRowCloud | オンラインサービスを使って、クラウド内の海外アドレスを検証し、フォーマットします。 |
tBatchAddressRowCloud | バッチ処理を使用してアドレスデータを解析し、他のソフトウェアをインストールすることなく、フォーマッティングされたアドレスをすばやく正確に取得します。 |
Address 標準izationのシナリオ
Continuous matching
Continuous matchingのコンポーネント
tMatchIndex | 継続的マッチングを目的に、ElasticSearchで、クリーンで重複除去されたデータセットをインデックス化します。 |
tMatchIndexPredict | tMatchIndexを使用して、新しいデータセットをElasticSearchに保存されているルックアップデータセットと比較します。 tMatchIndexPredictは、一意なレコードとサスペクト重複を別々のファイルに出力します。 |
Continuous matchingのシナリオ
Data extraction
Data extractionのコンポーネント
tExtractRegexFields | 正規表現マッチングを使用して、データを抽出し、フォーマット化された文字列から複数のカラムを生成します。 |
tPatternExtract | 指定されたパターンに一致するすべてのデータを出力します。その後、抽出されたデータに対して必要な操作を実装できます。 |
Data extractionのシナリオ
Data matching
Data matchingのコンポーネント
tMatchGroup | 1つ以上のマッチングルールを使用して大量のデータを含むソースデータに同様のデータレコードのグループを作成します。 |
tRecordMatching | 参照データソースとの照合によりあらゆるソースデータのデータクオリティを保証します。 |
Data matchingのシナリオ
Data privacy
Data privacyのコンポーネント
tDataDecrypt | tDataEncryptのコンポーネントで暗号化されたデータを復号化します。 |
tDataEncrypt | 読み取り不可能な暗号文に変換することでデータを保護します。 |
tDataMasking | 機密性の高い実際のデータを表示することが勧められない場合に、元のデータをランダムな文字または数値で隠し、実際のデータを保護しながら、同様の効果を得るために使用します。 |
tDataShuffling | シャッフルでは、入力テーブルのデータについて、データセットのファンクションを保ったまま実際のデータを保護します。これはテストやトレーニングなどの目的で利用できます。 |
tDataUnmasking | tDataMaskingのコンポーネントでマスクされたデータのマスクを解除して、元のデータを取得します。 |
tDuplicateRow | データクオリティファンクションテスト用に、有意なデータで複製を作成します。 |
tPatternMasking | 特定のパターンに従うデータをマスキングします。また、必要に応じて元のデータを規則的に変換できます。 |
tPatternUnmasking | tPatternMaskingのコンポーネントでマスクされたデータのマスクを解除して、元のデータを取得します。 |
Data privacyのシナリオ
Deduplication
Deduplicationのコンポーネント
tRuleSurvivorship | ビジネスルールに従ってエンティティの単一表記を作成し、マスターデータ管理用にデータのマスターコピーを作成できます。 |
tSurviveFields | さまざまな異種ソースからのデータを一元化して、MDMデータのマスターコピーを作成します。 |
tUniqRow | ジョブの入力または出力フローのデータクオリティを保証します。 |
Deduplicationのシナリオ
Email validation
Email validationのコンポーネント
tVerifyEmail | メールアドレスが特定のルールに準拠しているかどうかを確認し、特定のカラムの内容を使って、ルールに一致しないアドレスを修正します。 |
Email validationのシナリオ
Format
Formattingのコンポーネント
tChangeFileEncoding | 指定されたファイルの文字エンコーディングを変換し、変換された文字エンコーディングで新しいファイルを生成します。 |
Formattingのシナリオ
Fuzzy matching
Fuzzy matchingのコンポーネント
tBlockedFuzzyJoin | 参照データソースとの照合によりあらゆるソースデータのデータクオリティを保証します。 |
tFuzzyJoin | 複数のカラムであいまい一致を行ったり、メインフローからのカラムをルックアップフローからの参照カラムと比較したり、メインフローデータまたはリジェクトデータを出力したりして、2つのテーブルを結合します。 |
tFuzzyMatch | メインフローのカラムとルックアップフローの参照カラムを比較し、距離を表示するメインフローデータを出力します。 |
tFuzzyUniqRow | 定義済みの照合方法を使用して入力フローのカラムを比較し、検出された重複を収集します。 |
Fuzzy matchingのシナリオ
Google address 標準ization
Google address 標準izationのコンポーネント
tGoogleAddressRow | 人間が読めるアドレスを地理座標や他の地理情報に変換します。 |
tGoogleGeocoder | 人間が判読できるアドレスを地理座標に変換します。 |
tGoogleMapLookup | 地理座標とアドレス情報を使って、詳細な地理情報を取得します。 |
Google address 標準izationのシナリオ
Identification
Identificationのコンポーネント
tGenKey | 各列に異なるタイプのアルゴリズムを適用し、計算結果を1つのキーにグルーピングすることによって、入力カラムから機能キーを生成し、入力キーを使用してこのキーを出力します。 |
tAddCRCRow | 処理データクオリティの改善に役立つ一意IDを提供します。CRCはCyclical Redundancy Checking (巡回冗長検査)の略です。 |
Identificationのシナリオ
Loqate address 標準ization
Loqate address 標準izationのコンポーネント
tLoqateAddressRow | 国際住所を解析、検証、クレンジング、標準化、音訳、およびフォーマットします。 |
Loqate address 標準izationのシナリオ
Matching with machine learning
Matching with machine learningのコンポーネント
tMatchModel | tMatchPredictコンポーネントによって使用される一致モデルを生成して、疑わしいペアのラベルを自動的に予測し、コンポーネントプロパティで設定されたラベルにマッチするレコードをグルーピングします。 |
tMatchPairing | Sparkでの機械学習のコンテキストで、大量のボリュームを含むソースデータから疑わしい重複のペアを計算できます。 |
tMatchPredict | 疑わしいレコードを自動的にラベル付けし、コンポーネントプロパティのラベルセットにマッチする疑わしいレコードをグルーピングします。 |
Matching with machine learningのシナリオ
Melissa Data address 標準ization
Melissa Data address 標準izationのコンポーネント
tMelissaDataAddress | 住所の形式が正しいかどうかを確認し、各行の形式またはスペルのエラーを修正します。 |
tPersonator | 連絡先データをチェック、確認、移動、追加することで米国とカナダの連絡先データベースの品質を保証します。 |
Melissa Data address 標準izationのシナリオ
Microsoft SQL Server validation
Microsoft SQL Server validationのコンポーネント
tMSSqlInvalidRows | 特定のデータクオリティビジネスルールに一致するDB行を抽出します。続いて、必要な修正を実装できます。 |
tMSSqlValidRows | 特定のデータクオリティビジネスルールに一致するDB行を抽出します。 |
MySQL validation
MySQL validationのコンポーネント
tMySQLInvalidRows | 特定のData Qualityパターン(正規表現)またはData Qualityルール(ビジネスルール)を基にMySQLデータベース行をチェックします。 |
tMySQLValidRows | Data Qualityパターン(正規表現)に基づいてMySQLデータベース行をチェックします。 |
MySQL validationのシナリオ
Name 標準ization
Name 標準izationのコンポーネント
tFirstnameMatch | データを標準化するために名前を参照インデックスと照合します。 |
Name 標準izationのシナリオ
Oracle validation
Oracle validationのコンポーネント
tOracleInvalidRows | 特定のData Qualityパターン(正規表現)またはData Qualityルール(ビジネスルール)を基にOracleデータベース行をチェックします。 |
tOracleValidRows | Data Qualityパターン(正規表現)に基づいてOracleデータベース行をチェックします。 |
Pattern validation
Pattern validationのコンポーネント
tFindRegexlibExpressions | Webサーバーに送信されたリクエストに一致するすべての正規表現に関する情報を保持するデータセットを返します。 |
tLastRegexlibExpressions | ライブラリーに追加された最新のN個の正規表現に関する情報を保持し、http://regexlib.comのクエリーに一致するデータセットを返します。 |
tMultiPatternCheck | 指定されたJava正規表現に対して、複数のカラムの既存のデータをすべてチェックします。 |
tPatternCheck | 次の2つの出力フローを与えます: 一致データおよび非一致データ。前者は特定のパターンに一致するすべてのデータを収集し、後者は特定のパターンに一致しないすべてのデータを収集します。その後、必要な修正を行うことができます。 |
Pattern validationのシナリオ
Phone number 標準ization
Phone number 標準izationのコンポーネント
t標準izePhoneNumber | 特定の形式に基づいて電話番号を標準化します。 |
Phone number 標準izationのシナリオ
PostgreSQL validation
PostgreSQL validationのコンポーネント
tPostgresqlInvalidRows | 特定のData Qualityパターンに一致しないDB行を抽出し、必要な修正を実装できます。 |
tPostgresqlValidRows | 特定のデータクオリティパターンに一致するDB行を抽出します。 |
QAS address 標準ization
QAS address 標準izationのコンポーネント
tQASAddressIncomplete | [Incomplete] (不完全)と[Reject] (リジェクト)という2つの出力フローを返します。 |
tQASAddressRow | フォーマットまたはスペルのエラーを修正し、各行の検証ステータスを示します。 |
tQASAddressUnknown | QuickAddressデータで配達可能結果に一致しない住所をすべて収集する[Unknown] (不明)という1つの出力フローを返します。 |
tQASAddressVerified | [Verified] (検証済み)、[Interaction required] (インタラクションが必要)、[Reject] (リジェクト)という3つの出力フローを返します。 |
tQASBatchAddressRow | フォーマットまたはスペルのエラーを修正し、欠落したデータを追加し、各行の検証ステータスを示します。 |
QAS address 標準izationのシナリオ
Reporting
Reportingのコンポーネント
tDqReportRun | レポートに一覧化されている分析を起動し、結果をデータクオリティデータマートを保存します。 |
tThresholdViolationAlert | Studioで作成されたさまざまな品質分析のインジケーターに設定されたしきい値に関するしきい値違反のアラート。 |
Reportingのシナリオ
- Talend Cloud Management Consoleからプロファイリングレポートを起動
- Talend Administration Center Webアプリケーションからプロファイルレポートを起動
Sampling
Samplingのコンポーネント
tReservoirSampling | ビッグデータセットからランダムサンプルデータを抽出します。 |
Samplingのシナリオ
標準ization
標準izationのコンポーネント
t標準izeRow | 受信データを個別のXMLまたはJSONデータフローで正規化して、ルール準拠データを非準拠データから分離または標準化します。 |
tIntervalMatch | 結合関係を基に値を返します。 |
tReplaceList | その後の処理を行う前に、すべてのファイルをクレンジングします。 |
標準izationのシナリオ
Synonym index
Synonym indexのコンポーネント
tSynonymOutput | Luceneインデックスを作成し、エントリーおよび受信する関連シノニムをフィードします。 |
tSynonymSearch | 入力したデータに一致する参照エントリーの特定のインデックスを検索します。 |
Synonym indexのシナリオ
Text 標準ization
Text 標準izationのコンポーネント
tJapaneseNumberNormalize | 日本語の数字(漢数字)をアラビア数字に正規化します。 |
tJapaneseTokenize | 日本語のテキストをトークンに分割します。 |
tJapaneseTransliterate | 日本語のテキストデータを仮名とラテンスクリプトに変換します。 |
tStem | このデータを照合する前に、カラムのデータを標準化できるようにします。 |
tTransliterate | 文字列を世界の多数の言語の標準文字セット UCS (Universal Coded Character Set)に変換します。 |
Text 標準izationのシナリオ
Uniserv
Uniservのコンポーネント
tUniservBTGeneric (非推奨) | Uniserv製品DQ Batch Suiteで作成されたプロセスを実行します。 |
tUniservRTConvertName (非推奨) | 住所の名前エレメントを分析します。 |
tUniservRTMailBulk (非推奨) | 重複検索用のインデックスプールを作成します。 |
tUniservRTMailOutput (非推奨) | 重複検索に使われるインデックスプールを同期します。 |
tUniservRTMailSearch (非推奨) | 指定された入力レコードに基づいて重複する値を検索し、各レコードにデータを追加します。 |
tUniservRTPost (非推奨) | 住所の品質が向上します。これは、CRMおよびe-ビジネスにとって非常に重要です。郵便料金と広告費用に直接関係しているためです。 |
Uniservのシナリオ
Validation (インテグレーション)
Validation (インテグレーション)のコンポーネント
tDataQualityRules | 次のデータクオリティルールを使ってデータを検証します: |
tSchemaComplianceCheck | 参照データソースとの照合によりあらゆるソースデータのデータクオリティを保証します。 |
Validation (インテグレーション)のシナリオ
Data Stewardship
Data Stewardshipのコンポーネント
tDataStewardshipTaskDelete | Talend Data Stewardshipに接続し、キャンペーンにタスク形式で保存されているデータを削除します。 |
tDataStewardshipTaskInput | Talend Data Stewardshipに接続し、キャンペーンにタスク形式で保存されているデータを取得します。 |
tDataStewardshipTaskOutput | Talend Data Stewardshipに接続し、タスクの形式でキャンペーンにデータを読み取ります。このタスクには、キャンペーンで定義されているのと同じスキーマが含まれている必要があります。 |
Data Stewardshipのシナリオ
Database utility
Database utilityコンポーネント
tCreateTable | 特定タイプのデータベースでテーブルを作成します。 |
Database utilityのシナリオ
Databricks
Databricksのコンポーネント
tDBFSConnection | その他のDBFSのコンポーネントが、これによって作成される接続を再利用してこのDBFSと通信できるように、特定のDBFS (Databricksファイルシステム)システムに接続します。 |
tDBFSGet | ファイルを特定のDBFS (Databricks Filesystem)システムからコピーして、ユーザー定義されたディレクトリーに貼り付け、必要な場合は名前を変更します。 |
tDBFSPut | 特定のDBFS (Databricks Filesystem)システムに接続し、ユーザー定義のディレクトリーからファイルをコピーして、このシステムに貼り付け、必要に応じてこれらのファイルの名前を変更します。 |
Databricksのシナリオ
DB Generic
DB Genericのコンポーネント
tDBCDC | ソース運用データに加えられた変更のみを抽出し、データベースCDCビューを使用してターゲットシステムで利用できるようにします。 |
tDBCDCOutput | CDCモードで選択したデータベースタイプのデータベースでデータの変更を同期させます。 |
tDBInvalidRows | 特定のデータクオリティ(正規表現)またはデータクオリティルール(ビジネスルール)に対してデータベース行をチェックします。 |
tDBValidRows | Data Qualityパターン(正規表現)に基づいてデータベース行をチェックします。 |
tDBBulkExec | データベースで挿入操作を実行する際にパフォーマンスを向上させます。 |
tDBClose | 接続データベースでコミットされたトランザクションをクローズします。 |
tDBColumnList | 指定されたデータベーステーブルのすべてのカラムを反復処理し、カラム名をリスト表示します。 |
tDBCommit | ジョブによって処理されたデータを接続済みデータベースで有効にします。 |
tDBConnection | 後続のサブジョブまたはサブジョブで再利用されるデータベースの接続を開きます。 |
tDBInput | データベースからデータを抽出します。 |
tDBLastInsertId | ユーザーがデータベーステーブルに最後に挿入したレコードのプライマリキー値を取得します。 |
tDBOutput | データベースでのエントリーの書き込み、アップデート、変更、抑制を行います。 |
tDBOutputBulk | 定義された区切りおよび選択データベースタイプの標準に基づいて、ファイルのカラムに書き込みます。 |
tDBOutputBulkExec | データベースで挿入アクションを実行します。 |
tDBRollback | 接続データベースのトランザクションのコミットをキャンセルして、意図せずにトランザクションの一部をコミットしないようにします。 |
tDBRow | 指定されたSQLクエリーをデータベースで実行します。 |
tDBSCD | 専用データベースSCDのテーブルの変更を反映し、追跡します。 |
tDBSCDELT | SQLクエリーにより専用SCDテーブルの変更を反映し、追跡します。 |
tDBSP | データベースのストアドプロシージャを呼び出します。 |
tDBTableList | SELECT文でWHERE句を使用し、指定したデータベーステーブルの名前をリスト表示します。 |
tParseRecordSet | テーブルの個々のレコードではなく、レコードセットを解析します。 |
DB2
DB2のコンポーネント
tDB2BulkExec | 提供されたデータに対して挿入アクションを実行し、DB2データベースへの挿入操作中にパフォーマンスを向上させます。 |
tDB2Close | 接続されたDBでコミットされたトランザクションをクローズします。 |
tDB2Commit | すべての行またはバッチごとに実行するのではなく、1つのグローバルトランザクションで一度にコミットするため、パフォーマンスが向上します。 |
tDB2Connection | 後続のサブジョブで再利用できる、指定したデータベースへの接続を開きます。 |
tDB2Input | 定義された順序でDBクエリーを実行します。これはスキーマ定義に完全に対応している必要があります。tDB2Inputは[Row] (行) > [Main] (メイン)リンクを使ってフィールドリストを次のコンポーネントに渡します。 |
tDB2Output | ジョブ内の先行するコンポーネントからのフローをベースに、テーブルで、またはテーブルに含まれているデータで定義されているアクションを実行します。 |
tDB2Rollback | トランザクションの一部が意図せずコミットされることを防ぎます。 |
tDB2Row | クエリーとデータベースの性質に応じて、実際のDB構造やデータに対して作用します(ただし、データは処理されません)。SQLBuilderツールを使用すると、SQLステートメントを簡単に記述できます。 |
tDB2SP | データベースストアドプロシージャーを呼び出す便利な方法を提供します。 |
DBFS
DBFSのコンポーネント
tDBFSConnection | その他のDBFSのコンポーネントが、これによって作成される接続を再利用してこのDBFSと通信できるように、特定のDBFS (Databricksファイルシステム)システムに接続します。 |
tDBFSGet | ファイルを特定のDBFS (Databricks Filesystem)システムからコピーして、ユーザー定義されたディレクトリーに貼り付け、必要な場合は名前を変更します。 |
tDBFSPut | 特定のDBFS (Databricks Filesystem)システムに接続し、ユーザー定義のディレクトリーからファイルをコピーして、このシステムに貼り付け、必要に応じてこれらのファイルの名前を変更します。 |
Defining Context Groups
Defining Context Groupsのシナリオ
Delimited
Delimitedのコンポーネント
tFileStreamInputDelimited | データを行ごとに連続的に読み取り、フィールドに分割し、スキーマで定義されたフィールドを、[Row] (行) > [Main] (メイン)リンクを介して次のジョブのコンポーネントに送ります。 |
tFileInputDelimited | 区切り付きファイルを行ごとに読み取り、フィールドに分割し、スキーマで定義されているフィールドを次のコンポーネントに送信します。 |
tFileOutputDelimited | 定義されたスキーマに従って、区切り付きファイルに入力データを出力します。 |
tPivotToColumnsDelimited | 出力するデータの選択を微調整します。 |
Delimitedのシナリオ
Delta Lake
Delta Lakeのコンポーネント
tDeltaLakeClose | アクティブなDeltaLake接続を閉じて、占有されているリソースを解放します。 |
tDeltaLakeConnection | 後続のサブジョブで再利用できる、指定したデータベースへの接続を開きます。 |
tDeltaLakeInput | Data LakeシステムのDelta Lakeレイヤーから最新バージョンまたは特定のレコードのスナップショットを抽出し、データを次のコンポーネントに送信してさらに処理します。 |
tDeltaLakeOutput | データレイクシステムのDeltaLakeレイヤーにParquet形式でレコードを書き込みます。 |
tDeltaLakeRow | SQLBuilderツールを使って実際のDB 構造またはデータに働きかけ(ただし、データ処理は行いません)、SQLステートメントを簡単に書くことができます。 |
Delta Lakeのシナリオ
DotNET
DotNETのコンポーネント
tDotNETInstantiate | 後で再利用するための.NETオブジェクトのコンストラクターを呼び出します。 |
tDotNETRow | カスタムまたは組み込みの.NETクラスを利用して、データの変換を促進します。 |
DotNETのシナリオ
Dropbox
Dropboxのコンポーネント
tDropboxConnection | 他のDropboxのコンポーネントが再利用できる特定のアカウントへのDropbox接続を作成します。 |
tDropboxDelete | Dropboxから特定のフォルダーまたはファイルを削除します。 |
tDropboxGet | 選択したファイルをDropboxアカウントから指定したローカルディレクトリーにダウンロードします。 |
tDropboxList | Dropboxの指定されたディレクトリーに保管されているファイルをリスト表示します。 |
tDropboxPut | ローカルファイルまたは特定のデータフローのいずれかから、Dropboxにデータをアップロードします。 |
Dropboxのシナリオ
Dynamic Schema
Dynamic Schemaのコンポーネント
tSetDynamicSchema | 不明なカラムからデータを取得するために、後続のサブジョブのコンポーネントで再利用できるダイナミックスキーマを設定するために使われます。 |
Dynamic Schemaのシナリオ
ElasticSearch
ElasticSearchのコンポーネント
tElasticSearchConfiguration | 同じジョブで ElasticSearchへの接続設定を再利用できるようにします。 |
tElasticSearchInput | ユーザー定義のクエリーに基づいて、特定のElasticsearchシステムからドキュメントを読み取ります。 |
tElasticSearchLookupInput | 厳密に定義された順序でElasticSearchクエリーを実行します。これはスキーマ定義に完全に対応している必要があります。 |
tElasticSearchOutput | 指定されたElasticsearchシステムにデータセットを書き込みます。 |
ELT Greenplum
ELT Greenplumのコンポーネント
tELTGreenplumInput | 最も複雑なInsertステートメントに必要な数の入力テーブルを追加します。 |
tELTGreenplumMap | 提供されたテーブルを使用してパラメーターを作成済みステートメントにフィードします。ステートメントには、テーブル間または1つのテーブルとそのエイリアス間で実装する内部結合または外部結合を含めることができます。 |
tELTGreenplumOutput | Greenplumデータベースに対して、SQL Insert、Update、およびDeleteステートメントを実行します。 |
ELT Greenplumのシナリオ
ELT Hive
ELT Hiveのコンポーネント
tELTHiveInput | 次のtELTHiveMapのコンポーネントによって使われるスキーマを入力Hiveテーブルから複製します。 |
tELTHiveMap | データを変換するために、Hive QLステートメントをグラフィカルに作成します。 |
tELTHiveOutput | tELTHiveMapと連携してデータをHiveテーブルに書き込みます。 |
ELT Hiveのシナリオ
ELT JDBC
ELT JDBCのコンポーネント
tELTInput | SQLステートメントの実行に必要な数の入力テーブルを追加します。 |
tELTMap | 提供されたテーブルを使ってパラメーターを作成済みSQLステートメントにフィードします。ステートメントには、テーブル間または1つのテーブルとそのエイリアス間で実装する内部結合または外部結合を含めることができます。 |
tELTOutput | 指定されたテーブルでアクションを実行し、ELTマッパーで定義された出力スキーマに従ってデータを挿入します。 |
ELT JDBCのシナリオ
ELT MSSql
ELT MSSqlのコンポーネント
tELTMSSqlInput | 最も複雑なInsertステートメントに必要な数の入力テーブルを追加します。 |
tELTMSSqlMap | 提供されたテーブルを使用してパラメーターを作成済みステートメントにフィードします。ステートメントには、テーブル間または1つのテーブルとそのエイリアス間で実装する内部結合または外部結合を含めることができます。 |
tELTMSSqlOutput | MSSqlデータベースにSQL Insert、Update、およびDeleteステートメントを実行します。 |
ELT MSSqlのシナリオ
ELT MySQL
ELT MySQLのコンポーネント
tELTMysqlInput | 最も複雑なInsertステートメントに必要な数の入力テーブルを追加します。 |
tELTMysqlMap | 提供されたテーブルを使用してパラメーターを作成済みステートメントにフィードします。ステートメントには、テーブル間または1つのテーブルとそのエイリアス間で実装する内部結合または外部結合を含めることができます。 |
tELTMysqlOutput | tELTMysqlOutputは、Mysqlデータベースに対してSQL Insert、Update、およびDeleteステートメントを実行します。 |
ELT MySQLのシナリオ
ELT Netezza
ELT Netezzaのコンポーネント
tELTNetezzaInput | 非常に複雑なInsertステートメントに必要な数の入力テーブルを追加できます。 |
tELTNetezzaMap | 提供されたテーブルを入力として使って、パラメーターを作成済みステートメントにフィードします。ステートメントには、テーブル間または1つのテーブルとそのエイリアス間で実装する内部結合または外部結合を含めることができます。 |
tELTNetezzaOutput | tELTNetezzaMapコンポーネントによって生成されたSQLステートメントによって、指定のNetezzaテーブルにあるデータに対してアクション(insert、update、delete、merge)を実行します。 |
ELT Netezzaのシナリオ
ELT Oracle
ELT Oracleのコンポーネント
tELTOracleUniteMap | 2つまたは複数のtELTOracleMapコンポーネントによって生成されたSQL SELECT文に基づいてSQL SELECT文をビルドし、入力テーブルの結果セットに対してUNION、UNION ALL、INTERSECT、MINUSのいずれかの操作を実行します。 |
tELTOracleInput | SQL SELECTステートメントを生成するためにtELTOracleMapコンポーネントによって使われるOracleテーブルスキーマを提供します。 |
tELTOracleMap | 1つ以上のtELTOracleInputコンポーネントが提供するテーブルスキーマを使って、SQL SELECTステートメントを作成します。 |
tELTOracleOutput | tELTOracleMapコンポーネントによって生成されたSQLステートメントを介して、指定のOracleテーブルのデータに対してアクション(insert、update、delete、merge)を実行します。 |
ELT Oracleのシナリオ
ELT PostgreSQL
ELT PostgreSQLのコンポーネント
tELTPostgresqlInput | SQL SELECTステートメントを生成するためにtELTPostgresqlMapコンポーネントによって使われるPostgresqlテーブルスキーマを提供します。 |
tELTPostgresqlMap | 1つ以上のtELTPostgresqlInputコンポーネントが提供するテーブルスキーマを使って、SQL SELECTステートメントを作成します。 |
tELTPostgresqlOutput | tELTPostgresqlMapコンポーネントによって生成されたSQLステートメントを介して、指定のPostgresqlテーブルのデータに対してアクション(insert、update、delete)を実行します。 |
ELT PostgreSQLのシナリオ
ELT Sybase
ELT Sybaseコンポーネント
tELTSybaseInput | SQL SELECTステートメントを生成するために、tELTSybaseMapコンポーネントによって使われるSybaseテーブルスキーマを提供します。 |
tELTSybaseMap | 1つ以上のtELTSybaseInputコンポーネントが提供するテーブルスキーマを使って、SQL SELECTステートメントを作成します。 |
tELTSybaseOutput | tELTSybaseMapコンポーネントによって生成されたSQLステートメントを介して、指定のSybaseテーブルのデータに対してアクション(insert、update、delete)を実行します。 |
ELT Sybaseのシナリオ
ELT Teradata
ELT Teradataのコンポーネント
tELTTeradataUniteMap | 2つまたは複数のtELTTeradataMapコンポーネントによって生成されたSQL SELECT文に基づいてSQL SELECT文をビルドし、入力テーブルの結果セットに対してUNION、UNION ALL、INTERSECT、MINUS、EXCEPTのいずれかの操作を実行します。 |
tELTTeradataInput | SQL SELECTステートメントを生成するためにtELTTeradataMapコンポーネントによって使われるTeradataテーブルスキーマを提供します。 |
tELTTeradataMap | 1つ以上のtELTTeradataInputコンポーネントによって提供されるテーブルスキーマを使用してSQL SELECT文を作成します。 |
tELTTeradataOutput | tELTTeradataMapコンポーネントによって生成されたSQLステートメントによって、指定のTeradataテーブルにあるデータに対してアクション(insert、update、delete、merge)を実行します。 |
ELT Teradataのシナリオ
ELT Vertica
ELT Verticaのコンポーネント
tELTVerticaInput | SQL SELECTステートメントを生成するためにtELTVerticaMapコンポーネントによって使われるVerticaテーブルスキーマを提供します。 |
tELTVerticaMap | 1つ以上のtELTVerticaInputコンポーネントが提供するテーブルスキーマを使って、SQL SELECTステートメントを作成します。 |
tELTVerticaOutput | ELTVerticaMapコンポーネントによって生成されたSQLステートメントを介して、指定の Verticaテーブルのデータに対してアクション(insert、update、delete)を実行します。 |
ELT Verticaのシナリオ
ESB REST
ESB RESTのコンポーネント
tRESTClient | CXF (JAX-RS)を使用してHTTPおよびHTTPSリクエストを送信し、対応するレスポンスを得ることで、RESTful Webサービスプロバイダーとのインタラクションを行います。 |
tRESTRequest | GET/POST/PUT/PATCH/DELETEリクエストをサーバーエンドのクライアントから受け取ります。 |
tRESTResponse | HTTPまたはHTTPリクエストへの応答として、特定のHTTPステータスコードをクライアントエンドに返します。 |
ESB RESTのシナリオ
- tXMLMapでJSONドキュメントをビルドしてRESTサービスを呼び出す
- RESTfulサービスとのインタラクションによってユーザー情報を取得する
- RESTサービスを使ってHTTP POSTリクエストを受け入れる
- HTTP POSTリクエストを受け入れてレスポンスを送信するRESTサービスの使用
- HTTP POSTリクエストをHTML形式で受け入れるRESTサービスの使用
- RESTfulサービスとのインタラクションでユーザー情報をアップデート
- URIクエリーパラメーターを使用してデータベースのデータを探査する
- HTTP GETリクエストを受け入れてレスポンスを送信するRESTサービスを使う
- データサービスのRESTエンドポイントURLでコンテキスト変数を使用
ESB SOAP
ESB SOAPのコンポーネント
tESBConsumer | 呼び出されたWebサービスから定義済みメソッドを呼び出し、指定されたパラメーターに基づいて定義されているクラスを返します。 |
tESBProviderFault | リクエスト応答通信スタイルの場合に、WebサービスのフォールトメッセージとしてTalendジョブサイクルの結果を提供します。 |
tESBProviderRequest | TalendジョブをWebサービスとしてラッピングします。 |
tESBProviderResponse | Talendジョブサイクルの結果をレスポンスメッセージとして供給します。 |
ESB SOAPのシナリオ
Exasol
Exasolのコンポーネント
tExasolBulkExec | Exasolデータベースが提供するIMPORTコマンドを使って、データをExasolデータベーステーブルにすばやくインポートします。 |
tExasolClose | Exasolデータベースインスタンスへのアクティブな接続を閉じて、占有されているリソースを解放します。 |
tExasolCommit | ジョブによって処理されたデータを接続済みExasolデータベースで検証します。 |
tExasolConnection | 他のExasolのコンポーネントで再利用できるExasolデータベースインスタンスへの接続を開きます。 |
tExasolInput | スキーマ定義に対応する厳密に定義された順序のクエリーに基づいてExasolデータベースからデータを取得し、そのデータを次のコンポーネントに渡します。 |
tExasolOutput | 前のコンポーネントから受信するフローに基づいて、テーブルおよび/またはテーブル内のデータで定義されたアクションを実行することにより、Exasolデータベースのデータを書き込み、アップデート、変更、削除します。 |
tExasolRollback | 接続されているExasolデータベースのトランザクションコミットをキャンセルします。 |
tExasolRow | ExasolデータベースでSQLクエリーを実行します。 |
Exasolのシナリオ
Excel
Excelのコンポーネント
tFileInputExcel | Excelファイルを行ごとに読み取り、正規表現を使用してフィールドに分割し、スキーマで定義されているフィールドを次のコンポーネントに送信します。 |
tFileOutputExcel | 定義されたスキーマに従ってデータ値が区切られたMS Excelファイルを書き込みます。 |
Excelのシナリオ
Firebird
Firebirdのコンポーネント
tFirebirdClose | Firebirdデータベースとのトランザクションを閉じます。 |
tFirebirdCommit | すべての行またはバッチごとに実行するのではなく、1つのグローバルトランザクションでコミットするため、パフォーマンスが向上します。 |
tFirebirdConnection | 後続のサブジョブで再利用できる、指定したデータベースへの接続を開きます。 |
tFirebirdInput | スキーマ定義に対応する必要がある厳密に定義された順序でFirebirdデータベースに対してデータベースクエリーを実行し、メイン行リンクを介してフィールドリストを次のコンポーネントに渡します。 |
tFirebirdOutput | ジョブ内の先行するコンポーネントからのフローをベースに、Firebirdデータベース内のテーブルで、またはテーブルに含まれているデータで定義されているアクションを実行します。 |
tFirebirdRollback | 接続されているFirebirdデータベースでコミットされたトランザクションをキャンセルします。 |
tFirebirdRow | 指定されたSQLクエリーを指定されたFirebirdデータベースに実行します。 |
FTP
FTPのコンポーネント
tFTPClose | アクティブなFTP接続を閉じて、占有されているリソースを解放します。 |
tFTPConnection | FTP接続を開いて、単一のトランザクションでファイルを転送します。 |
tFTPDelete | FTPサーバーの指定されたディレクトリー内のファイルまたはフォルダーを削除します。 |
tFTPFileExist | FTPサーバーにファイルまたはディレクトリーが存在するかどうかを確認します。 |
tFTPFileList | ファイルマスクパターンに基づいて、指定したディレクトリーの直下にあるすべてのファイルとフォルダをリスト表示します。 |
tFTPFileProperties | FTPサーバーの指定されたファイルのプロパティを取得します。 |
tFTPGet | FTPディレクトリーからローカルディレクトリーにファイルをダウンロードします。 |
tFTPPut | ローカルディレクトリーからFTPディレクトリーにファイルをアップロードします。 |
tFTPRename | FTPディレクトリー内のファイルの名前を変更します。 |
tFTPTruncate | FTPディレクトリー内のファイルを切り捨てます。 |
FTPのシナリオ
FullRow
FullRowのコンポーネント
tFileStreamInputFullRow | 新しく作成されたファイルのデータを行ごとに読み取り、1つのフィールド内の行全体を、[Row] (行) > [Main] (メイン)リンクを介して次のジョブコンポーネントに送ります。 |
tFileInputFullRow | ファイルを行単位で読み取り、スキーマで定義されたデータの完全な行を行リンク経由で次のコンポーネントに送信します。 |
FullRowのシナリオ
Global Variable
Global variableのコンポーネント
tSetGlobalVar | グローバル変数を定義するプロセスを容易にします。 |
Global variableのシナリオ
Google Analytics
Google Analyticsのコンポーネント
tGoogleAnalyticsReport | Google Analyticsへの接続を確立してデータレポートを取得します。 |
Google BigQuery
Google BigQueryのコンポーネント
tBigQueryConfiguration | Sparkジョブ用のGoogle BigQueryとGoogle Cloud Storageへの接続設定を提供します。 |
tBigQueryBulkExec | 特定のデータをGoogle BigQueryに転送します。 |
tBigQueryInput | Google BigQueryでサポートされているクエリーを実行します。 |
tBigQueryOutput | 先行のコンポーネントによって提供されたデータをGoogle BigQueryに転送します。 |
tBigQueryOutputBulk | 大きなサイズのデータ用に.txtまたは.csvファイルを作成して、Google BigQueryに転送する前に必要に応じて処理できるようにします。 |
tBigQuerySQLRow | Google BigQueryに接続し、クエリーを実行してテーブルから行ごとにデータを選択するか、GoogleBigQueryでテーブルを作成または削除します。 |
Google BigQueryのシナリオ
Google Bigtable
Google Bigtableのコンポーネント
tBigtableClose | Google Bigtableへのアクティブな接続を終了します。 |
tBigtableConnection | Google Bigtableへの接続設定を入力します。 |
tBigtableInput | Google Bigtableからデータを抽出して後続のコンポーネントに送ります。 |
tBigtableOutput | 先行のコンポーネントによって提供されたデータをGoogle Bigtableに転送します。 |
Google Dataproc
Google Dataprocのコンポーネント
tGoogleDataprocManage | Google Cloud PlatformのグローバルリージョンでDataprocクラスターを作成または削除します。 |
Google Drive
Google Driveのコンポーネント
tGoogleDriveConnection | 他のGoogle Driveのコンポーネントで再利用できるGoogle Drive接続を開きます。 |
tGoogleDriveCopy | Google Driveにファイル/フォルダーのコピーを作成します。 |
tGoogleDriveCreate | Google Drive内に新規フォルダーを作成します。 |
tGoogleDriveDelete | Google Driveのファイル/フォルダーを削除します。 |
tGoogleDriveGet | ファイルのコンテンツを取得し、ファイルをローカルディレクトリーにダウンロードします。 |
tGoogleDriveList | ドメインで、Shared DriveとMy Driveの両方およびすべての共有ドライブを含めて、特定のGoogle Driveフォルダーにファイルまたはフォルダーか、ファイルとフォルダーの両方をすべてリスト表示します。 |
tGoogleDrivePut | データフローまたはローカルファイルからGoogle Driveにデータをアップロードします。 |
Google Driveのシナリオ
Google PubSub
Google PubSubのコンポーネント
tPubSubInput | これらのメッセージに対して変換を実行するコンポーネントにメッセージを送信するGoogle Cloud PubSubサービスに接続します。 |
tPubSubInputAvro | Google Cloud Pub/Subに接続し、これらのメッセージに対して変換を実行するコンポーネントにAvro形式のメッセージを受信します。 |
tPubSubOutput | 直前のコンポーネントによってシリアライズされたメッセージをバイト配列に受信し、指定のPubSubサービスに送信します。 |
GPG
GPGのコンポーネント
tGPGDecrypt | gpg -d コマンドを呼び出してGnuPG暗号化ファイルを復号し、複合したファイルを指定のディレクトリーに保存します。 |
GPGのシナリオ
Greenplum
Greenplumのコンポーネント
tGreenplumBulkExec | Greenplumデータベースにデータをロードする時のパフォーマンスが向上します。 |
tGreenplumClose | Greenplumデータベースへの接続を閉じます。 |
tGreenplumCommit | すべての行またはバッチごとに操作を繰り返すのではなく、グローバルトランザクションを一度にコミットするため、パフォーマンスが向上します。 |
tGreenplumConnection | 後続のサブジョブで再利用できる、指定したデータベースへの接続を開きます。 |
tGreenplumGPLoad | 既存のデータファイル、入力フローから、または名前付きパイプを介してストリーミングモードのデータフローから直接、Greenplumテーブルにデータを一括ロードします。 |
tGreenplumInput | データベースを読み取り、クエリーに基づいてフィールドを抽出します。 |
tGreenplumOutput | 前のコンポーネントからの入力フローに従って、テーブルまたはテーブルのデータに定義されたアクションを実行します。 |
tGreenplumOutputBulk | INSERTクエリーのパラメーターとして使うファイルを準備し、Greenplumデータベースにフィードします。 |
tGreenplumOutputBulkExec | Greenplumデータベースへの挿入操作時のパフォーマンスが向上します。 |
tGreenplumRollback | トランザクションの一部が意図せずコミットされることを防ぎます。 |
tGreenplumRow | クエリーとデータベースの性質に応じて、実際のDBストラクチャーやデータに対して作用します(ただし、データは処理されません)。 |
Groovy
Groovyのコンポーネント
tGroovy | tGroovyは、簡易なJava構文であるGroovy言語を使って ジョブの機能の幅を広げます。 |
tGroovyFile | 簡易なJava構文であるGroovy言語を使って ジョブの機能の幅を広げます。 |
Groovyのシナリオ
GS
GSのコンポーネント
tGoogleCloudConfiguration | Sparkジョブ用のGoogle Cloud Platformへの接続設定を提供します。 |
tGSConfiguration | Sparkジョブ用のGoogle Cloud Storageへの接続設定を提供します。 |
tGSBucketCreate | データを整理し、Google Cloud Storage内のデータへのアクセスを制御するために使える新しいバケットを作成します。 |
tGSBucketDelete | Google Cloud Storage内の空のバケットを削除して、占有されているリソースを解放します。 |
tGSBucketExist | さらに操作を行うために、Google Cloud Storage内のバケットの存在を確認します。 |
tGSBucketList | Google Cloud Storageのすべてのプロジェクトまたは特定の1つのプロジェクトからバケットのリストを取得します。 |
tGSClose | 占有されているリソースを解放するためにGoogle Cloud Storageへのアクティブな接続を閉じます。 |
tGSConnection | Google Cloud Storageシステムにリクエストを行うための認証情報を提供し、Google Cloud Storageへの接続の再利用を可能にします。 |
tGSCopy | Google Cloud Storageのバケット内またはバケット間でオブジェクトをコピーまたは移動します。 |
tGSDelete | Google Cloud Storageの指定された条件に一致するオブジェクトを削除して、占有されているリソースを解放します。 |
tGSGet | Google Cloud Storageから指定された条件に一致するオブジェクトを取得し、ローカルディレクトリーに出力します。 |
tGSList | Google Cloud Storageからオブジェクトのリストを1つずつ取得します。 |
tGSPut | ファイルをGoogle Cloud Storageで管理できるように、ローカルディレクトリーからGoogle Cloud Storageにファイルをアップロードします。 |
GSのシナリオ
HBase
HBaseのコンポーネント
tHBaseConfiguration | 同じジョブでHBaseへの接続設定を再利用します。 |
tHBaseDeleteRows | 行キーを使い、与えられたHBaseデータベーステーブルからデータを持つ行を削除します。 |
tHBaseLookupInput | ストリーミングジョブのメインフローにルックアップデータを提供します。 |
tHBaseClose | ジョブで確立したHBase接続を閉じます。 |
tHBaseConnection | ジョブ内の他のHBaseのコンポーネントで再利用するHBase接続を確立します。 |
tHBaseDeleteRow | 指定されたHBaseテーブルからデータがある行を削除します。 |
tHBaseInput | 特定のHBaseデータベースからデータを読み取り、選択したカラムを抽出します。 |
tHBaseOutput | 特定のHBaseデータベースにデータのカラムを書き込みます。 |
HBaseのシナリオ
HCatalog
HCatalogのコンポーネント
tHCatalogInput | HCatalogで管理されたHiveデータベースからデータを読み取り、後続のコンポーネントにデータを送信します。 |
tHCatalogLoad | HDFSから直接データを読み取り、確立されたHCatalog管理テーブルにこのデータを書き込みます。 |
tHCatalogOperation | 処理するHCatalog管理対象データベース/テーブル/パーティションを準備します。 |
tHCatalogOutput | 着信フローからデータを受信し、このデータをHCatalog管理テーブルに書き込みます。 |
HCatalogのシナリオ
HDFS
HDFSのコンポーネント
tHDFSConfiguration | 同じジョブでHDFSへの接続設定を再利用します。 |
tHDFSCompare | HDFS内の2つのファイルを読み取り専用スキーマに基づいて比較し、比較情報を提示する行フローを生成します。 |
tHDFSConnection | 特定のHDFSに接続することで、このHDFSと通信するために作成した接続を他のHadoopのコンポーネントが再利用できるようにします。 |
tHDFSCopy | ソースファイルまたはフォルダーをHDFSのターゲットディレクトリーにコピーし、必要に応じてこのソースを削除します。 |
tHDFSDelete | 特定のHadoop分散ファイルシステム(HDFS)にあるファイルを削除します。 |
tHDFSExist | ファイルがHDFSの指定のディレクトリー内にあるかどうかを確認します。 |
tHDFSGet | ファイルをHadoop分散ファイルシステム(HDFS)からコピーして、ユーザー定義されたディレクトリーに貼り付け、必要な場合は名前を変更します。 |
tHDFSInput | 他のコンポーネントがデータを処理できるように、HDFSファイルのデータを抽出します。 |
tHDFSList | tHDFSListは、ファイルマスクパターンを基にファイルまたはフォルダーのリストを取得し、各ユニティで繰り返し処理を実行します。 |
tHDFSOutput | 受け取るデータフローを特定のHadoop分散ファイルシステム(HDFS)に書き込みます。 |
tHDFSOutputRaw | 単一カラム形式の階層データなど、さまざまな形式のデータを特定のHDFSファイルシステムに転送します。 |
tHDFSProperties | HDFSで処理されたファイルのプロパティを表示する単一行フローを作成します。 |
tHDFSPut | Hadoop分散ファイルシステムに接続して、大規模ファイルを最適なパフォーマンスでこのファイルシステムにロードします。 |
tHDFSRename | HDFS上で選択したファイルまたは指定したディレクトリーの名前を変更します。 |
tHDFSRowCount | HDFSのファイルを1行ずつ読み取って、ファイルに含まれる行数を決定します。 |
HDFSのシナリオ
Hive
Hiveのコンポーネント
tHiveClose | Hiveデータベースへの接続を閉じます。 |
tHiveConfiguration | 同じジョブでHiveへの接続設定を再利用します。 |
tHiveConnection | ジョブ内の他のHiveのコンポーネントで再使用するHive接続を確立します。 |
tHiveCreateTable | さまざまなHiveデータ形式に合うHiveテーブルを作成します。 |
tHiveInput | Hiveからデータを抽出し、データを後続のコンポーネントに送ります。 |
tHiveLoad | さまざまな形式のデータを特定のHiveテーブルに書き込むか、Hiveテーブルからディレクトリーにデータをエクスポートします。 |
tHiveOutput | 特定のHiveデータベースに接続し、受け取ったデータを特定のHiveテーブルまたはHDFSのディレクトリーに書き込みます。 |
tHiveRow | データ自体の処理は行わずに、クエリーとデータベースの性質に応じて、実際のDB構造またはデータに働きかけます。 |
tHiveWarehouseConfiguration | 同じジョブでHiveへのHive Warehouse Connectorの接続設定を再利用できます。 |
tHiveWarehouseInput | Hive Warehouse Connectorを使って、Hiveからデータを抽出して後続のコンポーネントにデータを送信します。 |
tHiveWarehouseOutput | Hive Warehouse Connectorを使って、特定のHiveデータベースに接続し、受信したデータを特定のHiveテーブルまたはHDFS内のディレクトリーに書き込みます。 |
Hiveのシナリオ
HSQLDB
HSQLDBのコンポーネント
tHSQLDbInput | スキーマ定義に対応する必要がある厳密に定義された順序でDBクエリーを実行し、次に、メイン行リンクでフィールドリストを次のコンポーネントに渡します。 |
tHSQLDbOutput | ジョブ内の先行するコンポーネントからのフローをベースに、テーブルで、またはテーブルに含まれているデータで定義されているアクションを実行します。 |
tHSQLDbRow | クエリーとデータベースの性質に応じて、実際のDBストラクチャーやデータに対して作用します(ただし、データは処理されません)。 |
HTTP
HTTPコンポーネント
tHTTPClient | HTTPサーバーによって提供されるWebサービスにアクセスします。このコンポーネントを使えば、あらゆるWebサービス(RESTやSOAPなど)と対話し、Webサービスへの認証を行うことができます。このコンポーネントを使えば、URL、ヘッダー、ボディにパラメーターを送信したり、レスポンスを解析してWebサービスから必要な情報を取得したりできます。 |
tHttpRequest | サーバーにHTTPリクエストを送信し、応答情報をローカルで出力します。 |
HTTPのシナリオ
Impala
Impalaのコンポーネント
tImpalaClose | Impalaデータベースへの接続を閉じます。 |
tImpalaConnection | ジョブ内の他のImpalaのコンポーネントで再利用するImpala接続を確立します。 |
tImpalaCreateTable | さまざまなImpalaデータ形式に合うImpalaテーブルを作成します。 |
tImpalaInput | selectクエリーを実行して対応するデータを抽出し、次のコンポーネントにデータを送信します。 |
tImpalaLoad | さまざまな形式のデータを特定のImpalaテーブルに書き込むか、Impalaテーブルからディレクトリーにデータをエクスポートします。 |
tImpalaOutput | ジョブ内の先行するコンポーネントからのフローをベースに、テーブルに含まれているデータで定義されているアクションを実行します。 |
tImpalaRow | 実際のDB構造やデータに働きかけます(ただし、データは処理されません)。 |
Informix
Informixのコンポーネント
tInformixBulkExec | Informixデータベースで挿入操作を実行します。 |
tInformixClose | Informixデータベースへの接続を閉じます。 |
tInformixCommit | すべての行または行のバッチを個別にコミットするのではなく、グローバルコミットを1回だけ行います。 |
tInformixConnection | 後続のサブジョブで再利用できる、指定したデータベースへの接続を開きます。 |
tInformixInput | データベースを読み取り、クエリーに基づいてフィールドを抽出します。 |
tInformixOutput | ジョブ内の先行するコンポーネントからのフローをベースに、テーブルで、またはテーブルに含まれているデータで定義されているアクションを実行します。 |
tInformixOutputBulk | INSERTクエリーのパラメーターとして使うファイルを準備し、Informixデータベースへのフィードに使用します。 |
tInformixOutputBulkExec | 提供されたデータを使用して、Informixデータベースで挿入操作を実行します。 |
tInformixRollback | 接続されたデータベースのトランザクションをキャンセルすることにより、不本意なトランザクションのコミットを防ぎます。 |
tInformixRow | SQLステートメントを簡単に書くことができるSQLBuilderツールを使って、実際のDB 構造またはデータに働きかけます(ただし、データ処理は行いません)。 |
tInformixSP | データベース内の複数の複雑なクエリーを一元化して呼び出します。 |
Ingres
Ingresコンポーネント
tIngresBulkExec | パフォーマンスを向上させるために、データをIngres DBMSのテーブルに一括で挿入します。 |
tIngresClose | 接続されたデータベースでコミットされたトランザクションをクローズします。 |
tIngresCommit | すべての行またはバッチごとに実行するのではなく、一意の接続を使い、1つのグローバルトランザクションで一度にコミットするため、パフォーマンスが向上します。 |
tIngresConnection | 後続のサブジョブで再利用できる、指定したデータベースへの接続を開きます。 |
tIngresInput | Ingresデータベースを読み込み、クエリーに基づいてフィールドを抽出します。 |
tIngresOutput | ジョブ内の先行するコンポーネントからのフローをベースに、テーブルで、またはテーブルに含まれているデータで定義されているアクションを実行します。 |
tIngresOutputBulk | パフォーマンスを向上させるために、データがIngres DBMSにバルクで挿入されるファイルのプレパレーションを行います。 |
tIngresOutputBulkExec | パフォーマンスを向上させるために、データをIngres DBMSのテーブルに一括で挿入します。 |
tIngresRollback | 接続されたデータベースでコミットされたトランザクションをキャンセルすることで、トランザクションの一部が意図せずにコミットしないようにします。 |
tIngresRow | SQLBuilderツールを使って実際のDB 構造またはデータに働きかけ(ただし、データ処理は行いません)、SQLステートメントを簡単に書くことができます。 |
Ingresシナリオ
Internet (インテグレーション)
Internet (インテグレーション)コンポーネント
tFileFetch | 指定されたプロトコル(HTTP、HTTPS、FTP、またはSMB)を介してファイルを取得します。 |
Internet (インテグレーション)のシナリオ
Jasper
Jasperのコンポーネント
tJasperOutput | JaspersoftのiReportを使用して、リッチフォーマットのレポートを作成します。 |
tJasperOutputExec | JaspersoftのiReportを使用してリッチフォーマットでレポートを作成し、入力コンポーネントとtJasperOutputコンポーネントの組み合わせとして機能するため、パフォーマンスが向上します。 |
Jasperのシナリオ
Java custom code
Java custom codeのコンポーネント
Java custom codeのシナリオ
JavaDB
JavaDBのコンポーネント
tJavaDBInput | データベースを読み取り、クエリーに基づいてフィールドを抽出します。 |
tJavaDBOutput | ジョブ内の先行するコンポーネントからのフローをベースに、テーブルで、またはテーブルに含まれているデータで定義されているアクションを実行します。 |
tJavaDBRow | SQLBuilderツールを使って実際のデーターベース構造またはデータに働きかけ(ただし、データ処理は行いません)、SQLステートメントを簡単に書くことができます。 |
JBoss ESB
JBoss ESBのコンポーネント
tJBossESBInput | JBossESBサーバーからメッセージを取得して、Talendジョブで使えるフローとして処理します。 |
tJBossESBOutput | Talendジョブで使うデータをJBossESBメッセージに変換します。 |
JDBC
JDBCのコンポーネント
tJDBCConfiguration | 他のJDBCのコンポーネントで再利用される接続情報と認証情報を保管します。 |
tJDBCLookupInput | データベースを読み取り、クエリーに基づいてフィールドを抽出します。 |
tJDBCClose | アクティブなJDBC接続を閉じて、占有されているリソースを解放します。 |
tJDBCColumnList | 指定されたJDBCテーブルのすべてのカラム名をリスト表示します。 |
tJDBCCommit | すべての行またはバッチごとに実行するのではなく、1つのグローバルトランザクションで一度にコミットするため、パフォーマンスが向上します。 |
tJDBCConnection | 後続のサブジョブで再利用できる、指定したデータベースへの接続を開きます。 |
tJDBCInput | JDBC API接続を使用して任意のデータベースを読み取り、クエリーに基づいてフィールドを抽出します。 |
tJDBCOutput | ジョブ内の先行するコンポーネントからのフローをベースに、テーブルに含まれているデータで定義されているアクションを実行します。 |
tJDBCRollback | 接続されたデータベースでコミットされたトランザクションをキャンセルすることで、誤ってトランザクションの一部をコミットしないようにします。 |
tJDBCRow | SQLBuilderツールを使って実際のDB 構造またはデータに働きかけ(ただし、データ処理は行いません)、SQLステートメントを簡単に書くことができます。 |
tJDBCSP | 複数または複雑なクエリーをデータベースに一元化して、簡単に呼び出すことができます。 |
tJDBCTableList | Where句をベースとするselectステートメントを使用して、JDBCテーブルの特定のセットの名前をリスト表示します。 |
JIRA
JIRAのコンポーネント
tJIRAInput | JQLクエリーに基づいて問題情報を取得するか、JIRAから指定されたプロジェクトIDに基づいてプロジェクト情報を取得します。 |
tJIRAOutput | JIRAの課題またはプロジェクト情報を挿入、アップデート、削除します。 |
JIRAのシナリオ
JMS
JMSのコンポーネント
tJMSInput | Javaアプリケーションとメッセージ指向ミドルウェアシステムとの間のインターフェイスを作成します。 |
tJMSOutput | Javaアプリケーションとメッセージ指向ミドルウェアシステムとの間のインターフェイスを作成します。 |
tMessagingClose | MQサーバーへの接続を閉じます。 |
tMessagingCommit | 各行や各バッチに実行するのではなく、1つの接続を使った1回のグローバルトランザクションでコミットします。 |
tMessagingConnection | 通信のためにMQサーバーへの接続を開きます。 |
tMessagingInput | メッセージ指向ミドルウェア(MOM)システムのキューからメッセージをフェッチし、次のコンポーネントに渡します。 |
tMessagingOutput | メッセージ指向ミドルウェア(MOM)システムのキューにメッセージを追加し、メッセージを非同期にフェッチできるようにします。 |
tMessagingRollback | MQサーバーでコミットされたトランザクションをキャンセルします。 |
JMSのシナリオ
JSON
JSONのコンポーネント
tFileStreamInputJSON | ファイルからJSONデータを抽出し、そのデータをたとえばファイルまたはデータベーステーブルに転送します。 |
tFileInputJSON | ファイルからJSONデータを抽出し、そのデータをファイル、データベーステーブルなどに転送します。 |
tFileOutputJSON | データを受け取り、出力ファイルのJSON構造化データブロックに書き換えます。 |
JSONのシナリオ
Kafka
Kafkaのコンポーネント
tKafkaInputAvro | 処理する必要のあるAvro形式のメッセージを、設計しているジョブ内の後続のコンポーネントに送信します。 |
tKafkaCommit | 接続されているtKafkaInputの現在の状態を保存します。 |
tKafkaConnection | 再利用可能なKafka接続を開きます。 |
tKafkaCreateTopic | 他のKafkaのコンポーネントが使えるKafkaトピックを作成します。 |
tKafkaInput | 処理する必要のあるメッセージを、設計しているジョブ内の後に続くコンポーネントに送信します。 |
tKafkaOutput | メッセージをKafkaシステムに公開します。 |
Kafkaのシナリオ
Kerberos
Kerberosのコンポーネント
tSetKerberosConfiguration | Kerberos認証に関連する情報を設定するために使われます。 |
Keystore
Keystoreのコンポーネント
tSetKeystore | PKCS 12およびJKS間の認証データ型を設定するために使われます。 |
Keystoreのシナリオ
Kinesis
Kinesisのコンポーネント
tKinesisInput | Amazon Kinesisストリームのコンシューマーとして機能し、このKinesisストリームからメッセージをプルします。 |
tKinesisInputAvro | Amazon Kinesisストリームのコンシューマーとして機能し、このKinesisストリームからメッセージをプルします。 |
tKinesisOutput | データプロデューサーとして機能し、データをAmazon Kinesisストリームに送信してリアルタイムで取り込みます。 |
Kinesisのシナリオ
Kudu
Kuduのコンポーネント
tApacheKuduInput | Apache Kuduテーブルからデータを取得し、変換のために次のコンポーネントに送信します。 |
tApacheKuduOutput | データをApache Kuduテーブルに書き込みます。 |
tKuduConfiguration | 同じジョブにおけるCloudera Kuduへの接続設定の再利用を有効にします。 |
tKuduInput | Cloudera Kuduテーブルからデータを取得し、変換のために次のコンポーネントに送信します。 |
tKuduOutput | Cloudera Kuduテーブルのデータを作成、アップデート、削除します。 |
Kuduのシナリオ
LDAP
LDAPのコンポーネント
tLDAPAttributesInput | LDAPクエリーを介して見つかった各オブジェクトを分析し、オブジェクトに関連付けられた属性のコレクションをリスト表示します。 |
tLDAPClose | LDAPディレクトリーサーバーへの1つの接続を切断して、占有されているリソースを解放します。 |
tLDAPConnection | LDAPディレクトリーサーバーへの接続を作成します。 |
tLDAPInput | 特定のフィルターをベースに、スキーマ定義に合わせて、LDAPクエリーを実行します。次に[Row] (行) > [Main] (メイン)リンクを使用してフィールドリストを次のコンポーネントに渡します。 |
tLDAPOutput | 特定のフィルターをベースに、スキーマ定義に合わせて、LDAPクエリーを実行します。次に[Row] (行) > [Main] (メイン)リンクを使用してフィールドリストを次のコンポーネントに渡します。 |
tLDAPRenameEntry | 特定のLDAPディレクトリー内の1つ以上のエントリーの名前を変更します。 |
LDAPのシナリオ
LDIF
LDIFのコンポーネント
tFileInputLDIF | LDIFファイルを行ごとに読み取り、フィールドに分割し、行接続を使ってスキーマで定義されているフィールドを次のコンポーネントに送信します。 |
tFileOutputLDIF | 定義されたスキーマに基づいてそれぞれのエントリーでデータが分離されたLDIFファイルを作成または変更します。そうしない場合は、LDIFファイルからコンテンツを削除します。 |
LDIFのシナリオ
Library import
Library importのコンポーネント
tLibraryLoad | ジョブで使用可能なJavaライブラリーをロードします。 |
Library importのシナリオ
Logs and errors (インテグレーション)
Logs and errors (インテグレーション)のコンポーネント
tAssert | ジョブ実行ステータスに関するブール値の評価を生成し、ジョブステータスメッセージをtAssertCatcherに提供します。 |
tAssertCatcher | ジョブ実行のステータス情報を統合するデータフローを生成し、データを定義済みの出力ファイルに転送します。 |
tChronometerStart | メインジョブの1つ以上のサブジョブの処理時間の計算を開始する、またはサブジョブの一部の処理時間の計算を開始するクロノメーターデバイスとして動作します。 |
tChronometerStop | メインジョブの1つ以上のサブジョブの処理時間の計算を停止する、またはサブジョブの一部の処理時間の計算を停止するクロノメーターデバイスとして動作します。tChronometerStopは合計実行時間を表示します。 |
tDie | ジョブを強制終了する前に、完全なログのtLogCatcherコンポーネントをトリガーします。 |
tFlowMeter | 定義されたフローで処理された行数をカウントします。この数は、ロギングの目的でtFlowMeterCatcherのコンポーネントによって捕捉されます。 |
tFlowMeterCatcher | ジョブ内で、tFlowMeterコンポーネントの使用によってトリガーされるログファンクションとして機能します。 |
tLogCatcher | 次の3つのいずれかによってトリガーされるログ機能として動作します: ログデータを収集して転送するためのJava例外、tDie、またはtWarn。 |
tLogRow | データ処理を監視する目的で[Run] (実行)コンソールにデータまたは結果を表示します。 |
tStatCatcher | ジョブプロセスメタデータをジョブレベルおよびコンポーネントレベルで収集し、ログデータを後続のコンポーネントに転送して表示または保存します。 |
tWarn | 完全なログのためにtLogCatcherコンポーネントによって頻繁にキャッチされる警告をトリガーします。 |
Logs and errors (インテグレーション)のシナリオ
Machine Learning
Machine Learningコンポーネント
tALSModel | 特定のユーザー製品のインタラクティブデータに基づいて、ユーザーランキング製品に関連付けられたマトリクスを生成します。 |
tClassify | モデルトレーニングのコンポーネントによって生成された分類子モデルに基づいて、エレメントが属するクラスを予測します。 |
tClassifySVM | tSVMModelによって生成された分類子モデルに基づいて、エレメントが属するクラスを予測します。 |
tDecisionTreeModel | tModelEncoderによって通常はプレパレーションが行われ、提供される機能ベクトルを分析して、tPredictが特定のエレメントを分類するために使う分類子モデルを生成します。 |
tGradientBoostedTreeModel | tModelEncoderによって通常はプレパレーションが行われ、提供される機能ベクトルを分析して、tPredictが特定のエレメントを分類するために使う分類子モデルを生成します。 |
tKMeansModel | K-Meansアルゴリズムの適用に基づいて受信データセットを分析します。 |
tKMeansStrModel | K-Meansアルゴリズムの適用に基づいて受信データセットをほぼリアルタイムで分析します。 |
tLinearRegressionModel | トレーニングデータセットを使って線形回帰モデルを構築します。 |
tLogisticRegressionModel | 通常はtModelEncoderによって前処理される特徴ベクトルを分析して、tPredictが特定のエレメントを分類するために使う分類子モデルを生成します。 |
tModelEncoder | 特徴化操作を実行して、データをtLogisticRegressionModelやtKMeansModelなどのモデルトレーニングのコンポーネントで期待される形式に変換します。 |
tNaiveBayesModel | 指定されたエレメントを分類するためにtPredictで使う分類子モデルを生成します。 |
tPredict | エレメントの状況を予測します。 |
tPredictCluster | エレメントのクラスターを予測します。 |
tRandomForestModel | 特徴ベクトルを分析します。 |
tRecommend | tASLModelによって生成されたユーザー製品リコメンダーモデルに基づいて、このモデルに知られているユーザーに製品を推奨します。 |
tSVMModel | 指定されたエレメントを分類するためにtPredictで使えるSVMベースの分類子モデルを生成します。 |
Machine Learningのシナリオ
Mailのコンポーネント
tFileInputMail | 指定されたMIMEまたはMSGメールファイルの標準キーデータを読み取ります。 |
tSendMail | ジョブの特定の状態または起こりうるエラーについて受信者に通知します。 |
Mailのシナリオ
MapRDB
MapRDBのコンポーネント
tMapRDBConfiguration | 他のMapRDBのコンポーネントで再利用される接続情報と認証情報を保管します。 |
tMapRDBLookupInput | ストリーミングジョブのメインフローにルックアップデータを提供します。 |
tMapRDBClose | 同じジョブで確立したMapRDB接続を閉じます。 |
tMapRDBConnection | 同じジョブ内の他のMapRDBのコンポーネントで再利用するMapRDB接続を確立します。 |
tMapRDBInput | 特定のMapRDBデータベースからデータを読み取り、選択したカラムを抽出します。 |
tMapRDBOutput | 特定のMapRDBデータベースにデータのカラムを書き込みます。 |
tMapROjaiInput | MapR-DBデータベースからドキュメントを読み取り、特定のジョブにデータを読み取ります。 |
tMapROjaiOutput | ジョブの前のコンポーネントからの受信フローに基づいて、ドキュメントデータベースとして使われるMapR-DBデータベースのドキュメントを挿入、置換、または削除します。 |
MapRDBのシナリオ
MapRStreams
MapRStreamsのコンポーネント
tMapRStreamsInputAvro | メッセージを変換するジョブにメッセージをAvro形式で転送します。このコンポーネントではMapR V5.2以上のみがサポートされます。 |
tMapRStreamsCommit | 指定されたtMapRStreamsInputに接続して、コンシューマーオフセットコミットを実行します。 |
tMapRStreamsConnection | 特定のMapR Streamsクラスターへの再利用可能な接続を開き、他のMapR Streamsのコンポーネントがこの接続を再利用できるようにします。 |
tMapRStreamsCreateStream | 他のMapR Streamsのコンポーネントが使えるMapR Streamsストリームまたはトピックを作成します。 |
tMapRStreamsInput | メッセージを変換するジョブにメッセージを転送します。このコンポーネントではMapR V5.2以上のみがサポートされます。 |
tMapRStreamsOutput | メッセージをMapR Streamsシステムに公開します。このコンポーネントではMapR V5.2以上のみがサポートされます。 |
Marketo
Marketoのコンポーネント
tMarketoBulkExec | REST APIモードでローカルファイルからMarketoにリードまたはカスタムオブジェクトをインポートします。 |
tMarketoCampaign | キャンペーンのレコード、アクティビティ、キャンペーンの変更に関連するデータをMarketoから取得します。 |
tMarketoConnection | 他のMarketoのコンポーネントで再利用できるMarketoへの接続を開きます。 |
tMarketoInput | Marketoからリードのレコード、アクティビティの履歴、リードの変更、カスタムオブジェクトに関連するデータを取得します。 |
tMarketoListOperation | Marketo内のリストに対して1つ以上のリードの追加/削除を行います。また、Marketo内のリストに1つ以上のリードが存在することの確認にも役立ちます。 |
tMarketoOutput | 着信データフローからリードレコードまたはカスタムオブジェクトレコードをMarketoに書き込みます。 |
Marketoのシナリオ
MarkLogic
MarkLogicのコンポーネント
tMarkLogicBulkLoad | MarkLogic Content Pump (MLCP)ツールを使って、ローカルファイルを一括モードでMarkLogicサーバーデータベースにインポートします。 |
tMarkLogicClose | MarkLogicデータベースへのアクティブな接続を閉じて、占有されているリソースを解放します。 |
tMarkLogicConnection | MarkLogicデータベースへの接続を開きます。これは他のMarkLogicのコンポーネントで再利用できます。 |
tMarkLogicInput | 文字列クエリーに基づいて、MarkLogicデータベースのドキュメントコンテンツを検索します。 |
tMarkLogicOutput | MarkLogicデータベースのドキュメントコンテンツを作成、アップデート、削除します。 |
MaxDB
MaxDBのコンポーネント
tMaxDBInput | データベースを読み取り、クエリーに基づいてフィールドを抽出します。 |
tMaxDBOutput | データベースでのエントリーの書き込み、アップデート、変更、抑制を行います。 |
tMaxDBRow | クエリーとデータベースの性質に応じて、実際のDBストラクチャーやデータに対して作用します(ただし、データは処理されません)。 |
MDM (Master Data Management)
MDM connectionおよびtransaction
MDM connectionおよびtransactionのコンポーネント
tMDMClose | 続行中のサブジョブの実行後に、開いているMDMサーバー接続を終了します。 |
tMDMCommit | MDM内のトランザクションのスコープ内で行われたデータベースに対するすべての変更をコミットします。 |
tMDMConnection | MDMサーバー接続を開き、現在のジョブまたはトランザクションで簡単に再利用できます。 |
tMDMRollback | エラーが発生した場合に部分的なコミットを防止するなど、確定的にコミットするのではなく、データベースで行われた変更をロールバックします。 |
MDM data processing
MDM data processingのコンポーネント
tMDMBulkLoad | バルクモードを使って、XML構造化マスターデータをMDMサーバーに書き込みます。 |
tMDMDelete | MDM Hubの特定のエンティティからマスターデータレコードを削除します。 |
tMDMInput | MDM Hub内のデータを読み取り、このデータの処理を可能にします。 |
tMDMOutput | MDMサーバーへのデータの書き込みまたは削除を行います。 |
tMDMRestInput | MDM HubからREST APIを介してデータを読み取り、さらに処理します。 |
tMDMSP | 複数のクエリーや複雑なクエリーをMDM Hubで一元管理し、ストアドプロシージャーを簡単に呼び出す便利な方法が提供されています。 |
tMDMViewSearch | 特定のビューで作成したフィルタリング基準を適用してMDMハブからMDMレコードを取得し、結果をXML構造で出力します。 |
MDM data processingのシナリオ
MDM event processing
MDM event processingのコンポーネント
tMDMReceive | MDM XMLデータを保持するコンテキストパラメーターをデコードし、フラットスキーマに変換します。 |
tMDMRouteRecord | データに加えた変更をイベントマネージャーが識別し、相関アクションをトリガーできるようにします。 |
tMDMTriggerInput | MDMから送信されたXMLメッセージ(ドキュメント タイプ)を読み取り、その情報を次のコンポーネントに渡します。 |
tMDMTriggerOutput | ジョブの前のコンポーネントからXMLフロー(ドキュメントタイプ)を受け取ります。 |
MDM event processingのシナリオ
Microsoft CRM
Microsoft CRMのコンポーネント
tMicrosoftCrmInput | 特定のカラムで設定された条件に基づいて、Microsoft Dynamics CRMデータベースまたはMicrosoft Dynamics 365 CRMデータベースからデータを抽出します。 |
tMicrosoftCrmOutput | Microsoft Dynamics CRMデータベースかMicrosoft Dynamics 365 CRMデータベースに書き込みます。 |
Microsoft CRMのシナリオ
Microsoft MQ
Microsoft MQのコンポーネント
tMicrosoftMQInput | 指定されたMicrosoftメッセージキューの最初のメッセージを取得します(サポート文字列のみ)。 |
tMicrosoftMQOutput | 指定された流入データの定義済みカラムをMicrosoftメッセージキューに書き込みます(文字列型のみをサポートします)。 |
Microsoft MQのシナリオ
MOM
MOMのコンポーネント
tMessagingClose | MQサーバーへの接続を閉じます。 |
tMessagingCommit | 各行や各バッチに実行するのではなく、1つの接続を使った1回のグローバルトランザクションでコミットします。 |
tMessagingConnection | 通信のためにMQサーバーへの接続を開きます。 |
tMessagingInput | メッセージ指向ミドルウェア(MOM)システムのキューからメッセージをフェッチし、次のコンポーネントに渡します。 |
tMessagingOutput | メッセージ指向ミドルウェア(MOM)システムのキューにメッセージを追加し、メッセージを非同期にフェッチできるようにします。 |
tMessagingRollback | MQサーバーでコミットされたトランザクションをキャンセルします。 |
tMomCommit | MQサーバーのデータをコミットします。 |
tMomConnection | 通信のためにMQサーバーへの接続を開きます。 |
tMomInput | メッセージ指向ミドルウェア(MOM)システムのキューからメッセージをフェッチし、次のコンポーネントに渡します。 |
tMomMessageIdList | メッセージ指向ミドルウェアシステムのキューからメッセージIDリストをフェッチし、次のコンポーネントに渡します。 |
tMomOutput | メッセージを非同期的にフェッチするために、メッセージ指向ミドルウェアのシステムキューにメッセージを追加します。 |
tMomRollback | MQサーバーでコミットされたトランザクションをキャンセルします。 |
MOMのシナリオ
MongoDB
MongoDBのコンポーネント
tMongoDBConfiguration | 他のMongoDBのコンポーネントで再利用される接続情報と認証情報を保管します。 |
tMongoDBLookupInput | スキーマ定義に対応する必要がある厳密に定義された順序でデータベースクエリーを実行します。 |
tMongoDBBulkLoad | データファイルを異なる形式(CSV、TSV、または JSON)で指定されたMongoDBデータベースにインポートし、データの処理を行います。 |
tMongoDBClose | MongoDBデータベースへの接続を閉じます。 |
tMongoDBConnection | MongoDBデータベースへの接続を作成し、その接続を他のコンポーネントで再利用します。 |
tMongoDBGridFSDelete | MongoDB GridFS内の特定のファイルに対する削除アクションを自動化します。 |
tMongoDBGridFSGet | MongoDB GridFSシステムに接続して、そこからファイルをコピーします。 |
tMongoDBGridFSList | クエリーに基づいてファイルのリストを取得します。 |
tMongoDBGridFSProperties | クエリーに基づいて選択された特定のファイルのプロパティに関する情報を取得します。 |
tMongoDBGridFSPut | MongoDB GridFSシステムに接続して、ファイルをロードします。 |
tMongoDBInput | MongoDBデータベースのコレクションからレコードを取得し、後続のコンポーネントに転送して表示または保存します。 |
tMongoDBOutput | MongoDBデータのコレクションで定義されたアクションを実行します。 |
tMongoDBRow | MongoDBデータベースのコマンドと関数を実行します。 |
MongoDBのシナリオ
MQTT
MQTTのコンポーネント
tMQTTInput | MQTTトピックのメッセージをストリーミングするためのMQTTトピックのコンシューマーとして機能します。 |
tMQTTOutput | MQTTトピックのパブリッシャーとして機能し、このトピックにリアルタイムでメッセージをストリーミングします。 |
MS Delimited
MS Delimitedのコンポーネント
tFileInputMSDelimited | 複数構造の区切りファイルのデータ構造(スキーマ)を読み取り、行接続を使用して、異なるスキーマで定義されているフィールドを次のコンポーネントに送信します。 |
tFileOutputMSDelimited | 複数の着信[Row] (行)フローからのデータ構造(スキーマ)を使って、複雑なマルチ構造区切りファイルを作成します。 |
MS Delimitedのシナリオ
MS Positional
MS Positionalのコンポーネント
tFileInputMSPositional | 複数構造位置ファイルのデータ構造(スキーマ)を読み取り、行接続を使用して、異なるスキーマで定義されているフィールドを次のコンポーネントに送信します。 |
tFileOutputMSPositional | 複数の入力[Row] (行)フローからのデータ構造(スキーマ)を使用して、複雑なマルチ構造ファイルを作成します。 |
MS Positionalのシナリオ
MS XML connectors
MS XML connectorsのコンポーネント
tFileInputMSXML | 複数構造XMLファイルのデータ構造(スキーマ)を読み取り、行接続を使用して、異なるスキーマで定義されているフィールドを次のコンポーネントに送信します。 |
tFileOutputMSXML | 複数の入力[Row] (行)フローからのデータ構造(スキーマ)を使用して、複雑なマルチ構造のXMLファイルを作成します。 |
MS XML connectorsのシナリオ
MSSql
MSSqlのコンポーネント
tMSSqlBulkExec | Microsoft SQL Serverデータベースに挿入操作を実行する際にパフォーマンスを向上させます。 |
tMSSqlClose | MSSqlデータベースのトランザクションを閉じます。 |
tMSSqlColumnList | 指定されたMSSqlテーブルのすべてのカラム名をリスト表示します。 |
tMSSqlCommit | すべての行またはバッチごとに実行するのではなく、一意の接続を使い、1つのグローバルトランザクションで一度にコミットするため、パフォーマンスが向上します。 |
tMSSqlConnection | 後続のサブジョブで再利用できる、指定したデータベースへの接続を開きます。 |
tMSSqlInput | 定義された順序でDBクエリーを実行します。これはスキーマ定義に完全に対応している必要があります。 |
tMSSqlLastInsertId | ユーザーがMSSqlテーブルに追加した最後のプライマリキーを取得します。 |
tMSSqlOutput | ジョブ内の先行するコンポーネントからのフローをベースに、テーブルで、またはテーブルに含まれているデータで定義されているアクションを実行します。 |
tMSSqlOutputBulk | INSERTクエリーのパラメーターとして使うファイルを準備し、MSSqlデータベースにフィードします。 |
tMSSqlOutputBulkExec | Microsoft SQLServerデータベースへの挿入操作中のパフォーマンスの向上。 |
tMSSqlRollback | MSSqlデータベースのトランザクションコミットをキャンセルし、トランザクションの一部を意図せずにコミットされることを防ぎます。 |
tMSSqlRow | 実際のDB構造やデータに働きかけます(ただし、データは処理されません)。 |
tMSSqlSP | 複数のクエリーや複雑なクエリーをデータベースで一元的に管理し、簡単に呼び出す便利な方法が提供されています。 |
tMSSqlTableList | Where句をベースとするselectステートメントを使用して、MSSqlテーブルの特定のセットの名前をリスト表示します。 |
MSSqlのシナリオ
MySQL
MySQLのコンポーネント
tMysqlConfiguration | 他のMySQLのコンポーネントで再利用される接続情報と認証情報を保管します。 |
tMySQLInvalidRows | 特定のData Qualityパターン(正規表現)またはData Qualityルール(ビジネスルール)を基にMySQLデータベース行をチェックします。 |
tMysqlLookupInput | MySQLデータベースを読み取り、クエリーに基づいてフィールドを抽出します。 |
tMySQLValidRows | Data Qualityパターン(正規表現)に基づいてMySQLデータベース行をチェックします。 |
tMysqlBulkExec | MySQLまたはAuroraデータベースで挿入操作を実行する際にパフォーマンスを向上させます。 |
tMysqlClose | Mysqlデータベースでコミットされたトランザクションをクローズします。 |
tMysqlColumnList | 指定されたMysqlテーブルのすべてのカラムを反復処理し、カラム名をリスト表示します。 |
tMysqlCommit | すべての行またはバッチごとに実行するのではなく、一意の接続を使い、1つのグローバルトランザクションで一度にコミットするため、パフォーマンスが向上します。 |
tMysqlConnection | 指定されたMySQLデータベースへの接続を開き、後続のサブジョブで再利用します。 |
tMysqlInput | 定義された順序でDBクエリーを実行します。これはスキーマ定義に完全に対応している必要があります。 |
tMysqlLastInsertId | ユーザーがMysqlテーブルに最後に挿入したレコードのプライマリキー値を取得します。 |
tMysqlOutput | データベースでのエントリーの書き込み、アップデート、変更、抑制を行います。 |
tMysqlOutputBulk | 定義済みの区切りとMySQLやAuroraの標準に基づいて、ファイルのカラムに書き込みます。 |
tMysqlOutputBulkExec | 指定したMySQLまたはAuroraデータベースで挿入アクションを実行します。 |
tMysqlRollback | 接続されたMySQLデータベースのトランザクションのコミットをキャンセルして、トランザクションの一部が意図せずにコミットされることを防ぎます。 |
tMysqlRow | 指定されたSQLクエリーを指定されたMySQLデータベースに実行します。 |
tMysqlSP | MySQLデータベースのストアドプロシージャーを呼び出します。 |
tMysqlTableList | Where句をベースとするselectステートメントを使用して、Mysqlテーブルの特定のセットの名前をリスト表示します。 |
MySQLのシナリオ
- 特定のDQルールに基づいて顧客テーブルをチェックし、顧客レコードを選択する
- テーブル作成時にtMysqlOutput経由でデータ定義言語を管理する
- DBテーブルからメールアドレスを読み取り、特定のデータを取得
- ビッグデータストリーミングジョブでtMysqlOutputを使用してのデータベーステーブルのアップデート
- ソースファイルからデータベースにダイナミックカラムを書き込む
- 2つのフローを組み合わせて選択的出力を実行
- tMysqlLastInsertIdで最後に挿入したレコードのIDの取得
- tMysqlOutputを使用してカラムの挿入とデータの変更を行う
- MySQLデータベースにデータを一括挿入する
- マザー/ドーターテーブルにデータを挿入する
- 変換されたデータをMySQLデータベースに挿入する
- ユーザー定義のSQLテンプレートを使用して、DBテーブルで反復を実行し、そのコンテンツを削除する
- DBテーブルの反復処理とそのカラム名のリスト表示
- MySQLテーブルインデックスの削除と再生成
- リジェクトリンクを使用してエラーデータを取得
- 親ジョブと子ジョブの間のデータベース接続の共有
- tMysqlOutputを使用してデータをアップデートする
- PreparedStatementオブジェクトを使用してデータをクエリーする
- tMysqlSPでストアドプロシージャーを使用して州ラベルを検索する
- tMysqlInputを使用したMySQLデータベースから出力ファイルへのカラムの書き込み
NamedPipe
NamedPipeのコンポーネント
tNamedPipeClose | プロセスの最後に名前付きパイプを閉じます。 |
tNamedPipeOpen | データを書き込むための名前付きパイプを開きます。 |
tNamedPipeOutput | データを既存の開いた名前付きパイプに書き込みます。 |
NamedPipeのシナリオ
Neo4j
Neo4jのコンポーネント
tNeo4jv4Close | Neo4jバージョン4.xデータベースへの接続を切断します。 |
tNeo4jv4Connection | Neo4jバージョン4.xデータベースへの後で使用する接続を確立します。 |
tNeo4jv4Input | Neo4jバージョン4.xからデータを読み取り、出力フローにデータを送信します。 |
tNeo4jv4Output | 前のコンポーネントからデータを受け取り、データをローカルのNeo4jバージョン4.xデータベースに書き込みます。 |
tNeo4jv4Row | 指定されたCypherクエリーを指定されたNeo4Jバージョン4.xデータベースに実行します。 |
tNeo4jBatchOutput | 前のコンポーネントからデータを受け取り、データをローカルのNeo4jデータベースに書き込みます。 |
tNeo4jBatchOutputRelationship | 前のコンポーネントからデータを受け取り、関係をローカルのNeo4jデータベースに一括で書き込みます。 |
tNeo4jBatchSchema | ローカルのNeo4jデータベースのスキーマを定義します。 |
tNeo4jClose | 組み込みモードでNeo4jデータベースへのアクティブな接続を閉じます。 |
tNeo4jConnection | 他のNeo4jのコンポーネントによって再利用されるNeo4jデータベースへの接続を開きます。 |
tNeo4jImportTool | Neo4jインポートツールを使ってNeo4jデータベースを作成し、大量のデータをCSVファイルからこのデータベースに一括でインポートします。 |
tNeo4jInput | Neo4jからデータを読み取り、出力 フローでデータを送信します。 |
tNeo4jRow | 指定されたCypherクエリーを指定されたNeo4Jデータベースに実行します。 |
tNeo4jv4ImportTool | Neo4jバージョン4.xインポートツールを使ってNeo4jバージョン4.xデータベースを作成し、データをCSVファイルからこのデータベースに一括でインポートします。 |
Neo4jのシナリオ
Netezza
Netezzaのコンポーネント
tNetezzaBulkExec | Netezzaデータベースで挿入操作を実行する際にパフォーマンスが向上します。 |
tNetezzaClose | 接続されたNetazzaデータベースでコミットされたトランザクションをクローズします。 |
tNetezzaCommit | ジョブによって処理されたデータを検証し、接続されているNetezzaデータベースに送ります。 |
tNetezzaConnection | 後続のサブジョブで再利用されるNetezzaデータベースの接続を開きます。 |
tNetezzaInput | データベースを読み取り、クエリーに基づいてNetezzaデータベースからフィールドを抽出します。 |
tNetezzaNzLoad | Netezzaのnzloadユーティリティを使って、データをNetezzaデータベーステーブルに挿入します。 |
tNetezzaOutput | Netezzaデータベースでのエントリーの書き込み、アップデート、変更、抑制を行います。 |
tNetezzaRollback | 接続されたNetezzaデータベースでコミットされたトランザクションをキャンセルして、トランザクションの一部が意図せずにコミットされることを防ぎます。 |
tNetezzaRow | 指定したNetezzaデータベースに対して記述されたSQLクエリーを実行します。 |
Netsuite
Netsuiteコンポーネント
tNetSuiteConnection (v2019/2021) | NetSuite v2019/2021の機能を活用してNetSuite SOAPサーバーへの接続を作成します。これにより、ジョブにある他のNetSuiteのコンポーネントも接続を再利用できるようになります。 |
tNetSuiteInput (v2019/2021) | NetSuite SOAPサービスを呼び出し、NetSuite v2019の機能を活用して指定した条件に従ってデータを取得します。 |
tNetSuiteOutput (v2019/2021) | NetSuite SOAPサービスを呼び出し、NetSuite v2019とv2021の機能を活用してNetSuite SOAPサーバーでデータの挿入、アップデート、削除を行います。 |
tNetsuiteConnection | 後続のサブジョブやサブジョブで再利用するNetSuiteデータベースへの接続を開きます。 |
tNetsuiteConnection (v2019) | ジョブ内の他のNetSuiteのコンポーネントが接続を再利用できるように、NetSuite SOAPサーバーへの接続を作成します。 |
tNetsuiteInput | NetSuite SOAPサービスを呼び出し、指定した条件に従ってデータを取得します。 |
tNetsuiteInput (v2019) | NetSuite SOAPサービスを呼び出し、指定した条件に従ってデータを取得します。 |
tNetsuiteOutput | NetSuite SOAPサービスを呼び出し、NetSuite SOAPサーバーでデータの挿入、アップデート、削除を行います。 |
tNetsuiteOutput (v2019) | NetSuite SOAPサービスを呼び出し、NetSuite SOAPサーバーでデータの挿入、アップデート、削除を行います。 |
Netsuiteのシナリオ
Oracle
Oracleのコンポーネント
tOracleConfiguration | 他のOracleのコンポーネントで再利用される接続情報と認証情報を保管します。 |
tOracleInvalidRows | 特定のData Qualityパターン(正規表現)またはData Qualityルール(ビジネスルール)を基にOracleデータベース行をチェックします。 |
tOracleLookupInput | データベースを読み取り、クエリーに基づいてフィールドを抽出します。 |
tOracleValidRows | Data Qualityパターン(正規表現)に基づいてOracleデータベース行をチェックします。 |
tOracleBulkExec | Oracleデータベースのデータを処理する時のパフォーマンスを高めます。 |
tOracleClose | 接続されたOracleデータベースでコミットされたトランザクションをクローズします。 |
tOracleCommit | ジョブによって処理されたデータを接続済みのOracleデータベースで有効にします。 |
tOracleConnection | 指定されたOracleデータベースへの接続を開き、後続のサブジョブで再利用します。 |
tOracleInput | Oracleデータベースを読み取り、クエリーに基づいてフィールドを抽出します。 |
tOracleOutput | Oracleデータベースでのエントリーの書き込み、アップデート、変更、抑制を行います。 |
tOracleOutputBulk | 定義済みの区切りおよびOracle標準に基づいて、カラムのあるファイルを書き込みます。 |
tOracleOutputBulkExec | 指定したOracleデータベースで挿入アクションを実行します。 |
tOracleRollback | 接続されたOracleデータベースのトランザクションのコミットをキャンセルして、トランザクションの一部が意図せずにコミットされることを防ぎます。 |
tOracleRow | 指定されたSQLクエリーを指定されたOracleデータベースに実行します。 |
tOracleSP | Oracleデータベースのストアドプロシージャーを呼び出します。 |
tOracleTableList | Where句をベースとするSELECTステートメントを使って、指定したOracleテーブルの名前をリスト表示します。 |
Oracleのシナリオ
ORC
ORCのコンポーネント
tFileInputORC | 特定のORC形式のファイルからレコードを抽出し、処理を進めるため、データを次のコンポーネントに送ります。 |
tFileOutputORC | このコンポーネントの直前にある処理のコンポーネントからレコードを受け取って、ORC形式ファイルにレコードを書き込みます。 |
Orchestration (インテグレーション)
Orchestration (Integration)のコンポーネント
tCollector | tPartitionerによって生成されたスレッドを使用して、並列実行プロセスにフィードします。 |
tDepartitioner | tRecollectorがキャプチャーできるように、並列実行プロセスの出力をアセンブルします。 |
tParallelize | 複雑なジョブシステムを管理します。複数のサブジョブを同時に実行し、サブジョブの実行をメインジョブの他のサブジョブと同期します。 |
tPartitioner | 入力データをパーティショニングすることで、tCollectorが並列実行プロセスに転送できるようにします。 |
tRecollector | tDepartitionerによる並列実行結果の出力。 |
tFlowToIterate | 入力フローからデータを1行ずつ読み取り、反復グローバル変数にデータエントリーを格納します。 |
tForeach | 反復リンクのリストにループを作成します。 |
tInfiniteLoop | ループに基づいてタスクまたはジョブを自動的に実行します。 |
tIterateToFlow | 処理不能なデータを処理可能なフローに変換します。 |
tLoop | ループに基づいてタスクまたはジョブを自動的に実行する |
tPostjob | ジョブの実行の後に必要なタスクをトリガーします。 |
tPrejob | ジョブの実行に必要なタスクをトリガーします。 |
tReplicate | 入力スキーマを複製して、2つの同一の出力フローを作成します。 |
tRunJob | ジョブを次々に実行する必要がある複雑なジョブシステムを管理します。 |
tSleep | テストまたは追跡の目的でジョブのタイムブレークを使用して、考えられるボトルネックを特定します。 |
tUnite | さまざまな異種ソースからのデータを一元化します。 |
tWaitForFile | ディレクトリーを反復処理し、定義された条件が満たされた時に次のコンポーネントをトリガーします。 |
tWaitForSocket | 定義された条件に基づいてジョブをトリガーします。 |
tWaitForSqlData | 特定の接続で行の挿入または削除を反復処理し、SQLデータの存在にリンクした条件が満たされた時にサブジョブをトリガーします。 |
Orchestration (Integration)のシナリオ
- サブジョブの実行を並列化/同期化
- 大規模な顧客データを並列ソートする
- ジョブを呼び出して、呼び出されたジョブに必要なパラメーターを渡す
- ループを使ってジョブを複数回実行する
- データジョブの実行の前後にファイルを処理します
- リストを繰り返して値を取得する
- ファイルの反復処理とコンテンツのマージ
- 親ジョブから子ジョブに値を渡す
- バッファリングされた出力データを子ジョブから親ジョブにプロパゲート
- フローを複製し、2つの同一のフローをそれぞれソート
- 子ジョブのリストを動的に実行
- データフローとしてのファイルリストの変換
- データフローをリストに変換
- ファイルが作成されるのを待ち、メッセージがトリガーされた後、反復ループを続行する
- ファイルが作成されるのを待ち、メッセージがトリガーされた後、反復ループを停止する
- テーブルで行の挿入を待機しています
Parquet
Parquetのコンポーネント
tFileInputParquet | 特定のParquet形式のファイルからレコードを抽出し、処理を進めるため、データを次のコンポーネントに送ります。 |
tFileOutputParquet | このコンポーネントの直前にある処理のコンポーネントからレコードを受け取って、Parquet形式ファイルにレコードを書き込みます。 |
tFileStreamInputParquet | 他のコンポーネントがレコードを処理できるように、特定のParquet形式のファイルからレコードを抽出します。 |
POP
POPのコンポーネント
tPOP | POP3またはIMAPプロトコルを使用して、1つ以上のメールメッセージをサーバーから取得します。 |
POPのシナリオ
Positional
Positionalのコンポーネント
tFileStreamInputPositional | 特定のディレクトリーで新しいファイルをリッスンし、行ごとにデータを読み取り、特定のパターンに基づいてフィールドを抽出します。 |
tFileInputPositional | 固定長ファイルを行ごとに読み取り、特定のパターンに基づいてフィールドに分割し、スキーマで定義されているフィールドを次のコンポーネントに送信します。 |
tFileOutputPositional | 行の長さおよびフィールドまたはカラムのフォーマットに従って、行ごとにファイルを書き込みます。 |
Positionalのシナリオ
PostgresPlus
PostgresPlusのコンポーネント
tPostgresPlusBulkExec | DB2データベースの挿入操作時のパフォーマンスが向上します。 |
tPostgresPlusClose | 接続されたPostgresPlusデータベースでコミットされたトランザクションをクローズします。 |
tPostgresPlusCommit | すべての行またはバッチごとに実行するのではなく、1つのグローバルトランザクションでコミットするため、パフォーマンスが向上します。 |
tPostgresPlusConnection | 後続のサブジョブで再利用できる、指定したデータベースへの接続を開きます。 |
tPostgresPlusInput | 定義された順序でDBクエリーを実行します。これはスキーマ定義に完全に対応している必要があります。次に[Main]行リンクが使用され、フィールドリストの後続のコンポーネントに渡されます。 |
tPostgresPlusOutput | ジョブ内の先行するコンポーネントからのフローをベースに、テーブルで、またはテーブルに含まれているデータで定義されているアクションを実行します。 |
tPostgresPlusOutputBulk | INSERTクエリーのパラメーターとして使うファイルを準備し、PostgresPlusデータベースにフィードします。 |
tPostgresPlusOutputBulkExec | PostgresPlusデータベースの挿入操作時のパフォーマンスが向上します。 |
tPostgresPlusRollback | トランザクションの一部が意図せずコミットされることを防ぎます。 |
tPostgresPlusRow | クエリーとデータベースの性質に応じて、実際のDBストラクチャーやデータに対して作用します(ただし、データは処理されません)。SQLBuilderツールを使用すると、SQLステートメントを簡単に記述できます。 |
PostgreSQL
PostgreSQLのコンポーネント
tPostgresqlInvalidRows | 特定のData Qualityパターンに一致しないDB行を抽出し、必要な修正を実装できます。 |
tPostgresqlValidRows | 特定のデータクオリティパターンに一致するDB行を抽出します。 |
tPostgresqlBulkExec | Postgresqlデータベースに挿入操作を行う時のパフォーマンスが向上します。 |
tPostgresqlClose | 接続されたPostgresqlデータベースでコミットされたトランザクションをクローズします。 |
tPostgresqlCommit | すべての行またはバッチごとに実行するのではなく、1つのグローバルトランザクションでコミットするため、パフォーマンスが向上します。 |
tPostgresqlConnection | 後続のサブジョブで再利用できる、指定したデータベースへの接続を開きます。 |
tPostgresqlInput | 定義された順序でDBクエリーを実行します。これはスキーマ定義に完全に対応している必要があります。次に[Main]行リンクが使用され、フィールドリストの後続のコンポーネントに渡されます。 |
tPostgresqlOutput | ジョブ内の先行するコンポーネントからのフローをベースに、テーブルで、またはテーブルに含まれているデータで定義されているアクションを実行します。 |
tPostgresqlOutputBulk | INSERTクエリーのパラメーターとして使うファイルを準備し、Postgresqlデータベースにフィードします。 |
tPostgresqlOutputBulkExec | Postgresqlデータベースの挿入操作時のパフォーマンスが向上します。 |
tPostgresqlRollback | トランザクションの一部が意図せずコミットされることを防ぎます。 |
tPostgresqlRow | クエリーとデータベースの性質に応じて、実際のDBストラクチャーやデータに対して作用します(ただし、データは処理されません)。SQLBuilderツールを使用すると、SQLステートメントを簡単に記述できます。 |
Processing (インテグレーション)
Processing (インテグレーション)のコンポーネント
tCacheClear | 前に永続化されたRDD (Resilient Distributed Dataset)をメモリからクリアします。 |
tCacheIn | 持続データへのより高速なアクセスを提供します。 |
tCacheOut | 後でこれらのデータセットへのより高速なアクセスを提供するために、定義する特定のストレージレベルに応じて入力RDDを永続化します。 |
tExtractDynamicFields | ダイナミックカラムを解析して、標準出力カラムを作成します。 |
tExtractEDIField | EDIFACTメッセージファイルからEDI構造化データを読み取り、EDIFACTファミリーおよびEDIFACTタイプに従ってXMLを生成し、手動で定義されたXPathクエリーまたはリポジトリーウィザードからのXPathクエリーを使用して生成されたXMLを解析してデータを抽出し、最後に行接続を介して次のコンポーネントにデータを送信します。 |
tExtractRegexFields | 正規表現マッチングを使用して、データを抽出し、フォーマット化された文字列から複数のカラムを生成します。 |
tSample | 処理中のデータのサンプルサブセットを返します。 |
tSqlRow | 入力データセットに対してSQLクエリーを実行します。 |
tTop | データをソートし、このデータの最初の行からいくつかの行を出力します。 |
tTopBy | データをグルーピングしてソートし、各グループの最初のデータからいくつかの行を出力します。 |
tWindow | 指定されたSparkウィンドウを受信RDDに適用し、ウィンドウベースのRDDを次のコンポーネントに送信します。 |
tWriteAvroFields | 入力データをAvroファイルに変換します。 |
tWriteDelimitedFields | レコードをバイト配列に変換します。 |
tWriteDynamicFields | コンポーネントの入力カラムからダイナミックスキーマを作成します。 |
tWritePositionalFields | レコードをバイト配列に変換します。 |
tWriteXMLFields | レコードをバイト配列に変換します。 |
tAggregateRow | フローを受信し、1つまたは複数のカラムに基づいて集計します。 |
tAggregateSortedRow | 一連の操作に基づいて、出力カラムの並べ替えられた入力データを集計します。出力カラムに対しては、それぞれ必要な行数、実行される操作、データの集計を改善するデータ取得元の入力カラムを設定するために使われます。 |
tConvertType | 1つのTalendJavaタイプを自動的に変換し、エラーはコンパイルしないようにできます。 |
tDenormalize | 1つのカラムで入力フローの非正規化を行います。 |
tDenormalizeSortedRow | ソートされた入力フローをメモリ節約のために合成します。 |
tExternalSortRow | 外部の並べ替えアプリケーションを使って、並べ替えの種類と順序によって、1つまたは複数のカラムに基づいて入力データを並べ替えます。 |
tExtractDelimitedFields | 区切り文字カラムから複数のカラムを生成します。 |
tExtractJSONFields | JSONPathまたはXPathクエリーに基づいてJSONフィールドから目的のデータを抽出します。 |
tExtractPositionalFields | 位置フィールドを使用して、データを抽出し、フォーマット化された文字列から複数のカラムを生成します。 |
tExtractXMLField | XML構造化データをXMLフィールドから読み取り、スキーマで定義されているデータを次のコンポーネントに送信します。 |
tFilterColumns | カラムを並べ替えたり、不要なカラムを削除したり、新しいカラムを追加したりして、スキーマを均質化します。 |
tFilterRow | 選択したカラムに1つ以上の条件を設定することにより、入力行をフィルター処理します。 |
tJoin | メインデータフローとルックアップフローの間に内部結合と外部結合を実行します。 |
tManagePartitions | 入力データセットのパーティショニング方法を視覚的に定義できます。 |
tNormalize | SQL標準に従って入力フローを正規化します。これによってデータクオリティが改善し、データのアップデートが容易になります。 |
tPartition | 入力データセットのパーティショニング方法を視覚的に定義できます。 |
tReplace | その後の処理を行う前に、すべてのファイルをクレンジングします。 |
tReplicate | 入力スキーマを複製して、2つの同一の出力フローを作成します。 |
tSampleRow | 単一の行のリストまたは行グループのリストに基づいて行を選択します。 |
tSortRow | メトリックと分類テーブルの作成に役立ちます。 |
tSplitRow | 1つの入力行を複数の出力行に分割します。 |
tUniqRow | ジョブの入力または出力フローのデータクオリティを保証します。 |
tUnite | さまざまな異種ソースからのデータを一元化します。 |
tWriteJSONField | 受信データをJSONフィールドに変換し、それらをファイル、データベーステーブルなどに転送します。 |
Processing (インテグレーション)のシナリオ
- ダイナミックスキーマに基づいて値を集計
- ダイナミックカラムを作成してそのコンテンツを抽出する
- ダイナミックスキーマに基づくエントリーの重複除去
- EDIFACTメッセージからのデータの抽出
- メールアドレスから名前、ドメイン、TLDを抽出
- tJavaRowを介してダイナミックカラムのコンテンツを抽出する
- ダイナミックカラムをベースに、入力データを参照ファイルと照合して一致
- Spark Batchジョブを使用したダウンロード分析を実行
- ダイナミックスキーマに基づくソートエントリー
- 値の集計とデータの並べ替えを行う
- CSVファイルのクリーンアップとフィルタリングを行う
- お気に入りのオンラインソーシャルネットワークからデータを収集
- Javaタイプの変換
- エントリーの重複除去
- 複数のカラムを正規化
- 1つのカラムを非正規化
- 2つのカラムに完全一致を実行し、メインデータとリジェクトデータを出力
- データベーステーブルのフィールドからXMLデータを抽出する
- データベーステーブルの区切り文字カラムを抽出
- 区切り付きファイルのXMLフィールドから正しいデータと誤ったデータを抽出する
- さまざまな論理演算で名前のリストをフィルタリングする
- 単純な条件を使って名前のリストをフィルタリングする
- 行と行のグループをフィルタリングする
- ファイルの反復処理とコンテンツのマージ
- データを正規化
- ソート済み行の再グルーピング
- フローを複製し、2つの同一のフローをそれぞれソート
- JSONフィールドからデータを抽出中にエラーメッセージを取得
- 入力データの並べ替えと集計
- エントリーをソートする
- 1行を2行に分割
- JSONフィールドへのフラットデータの書き込み
Properties
Propertiesのコンポーネント
tFileInputProperties | 行ごとにテキストファイルを読み取り、モデルのkey = valueに従ってフィールドを区切ります。 |
tFileOutputProperties | モデルkey = valueに従って編成されたテキストデータを含むタイプ.iniまたは.propertiesの設定ファイルを書き込みます。 |
Propertiesのシナリオ
Proxy
Proxyのコンポーネント
tSetProxy | プロキシ設定に関連する情報を設定するために使われます。 |
RabbitMQ
RabbitMQコンポーネント
tRabbitMQAck | メッセージキューからメッセージを読み取り、出力 フローにメッセージを渡します 。 |
tRabbitMQClose | メッセージキューへの接続を切断します。 |
tRabbitMQConnection | 後で使用するメッセージキューへの接続を確立します。 |
tRabbitMQInput | メッセージキューからメッセージを読み取り、出力 フローにメッセージを渡します 。 |
tRabbitMQOutput | 先行のコンポーネントからデータをメッセージとして受け取り、指定された方法でメッセージをキューに追加します。 |
Raw
Rawのコンポーネント
tFileInputRaw | RAWファイルの全データを読み取って、別のコンポーネントによる後続処理のために単一の出力カラムに送信します。 |
tFileOutputRaw | 別のコンポーネントからのデータを、出力データの単一カラムの形式で提供します。 |
Regex
Regexのコンポーネント
tFileStreamInputRegex | 特定のディレクトリーで新しいファイルをリッスンし、正規表現を使ってデータをフィールドに分割するために、これらのファイルから行ごとにデータを読み取ります。 |
tFileInputRegex | ファイルを行ごとに読み取り、正規表現を使用してフィールドに分割し、スキーマで定義されているフィールドを次のコンポーネントに送信します。 |
Regexのシナリオ
REST
RESTのコンポーネント
tREST | REST Webサービスクライアントとして利用できます。 |
RESTのシナリオ
Route
Routeのコンポーネント
tRouteFault | Data Integrationジョブからメディエーションルートにメッセージを送り、メッセージをフォールトとしてマークします。 |
tRouteInput | メディエーションルートからData Integrationジョブにメッセージを受け入れます。 |
tRouteOutput | Data Integrationジョブからメディエーションルートにメッセージを送信します。 |
Routeのシナリオ
RSS
RSSのコンポーネント
tRSSInput | URLを使用してRSSフィードを読み取ります。 |
tRSSOutput | RSSまたはAtomフィードを保持するXMLファイルを作成して書き込みます。 |
RSSのシナリオ
Salesforce
Salesforceのコンポーネント
tSalesforceBulkExec | 特定のファイルのデータをSalesforceオブジェクトに一括ロードします。 |
tSalesforceConnection | Salesforceへの接続を開きます。 |
tSalesforceEinsteinBulkExec | ローカルファイルからSalesforce Analytics Cloudにデータをロードします。 |
tSalesforceEinsteinOutputBulkExec | Salesforce Analytics Cloudに対するデータ操作中にパフォーマンスが向上します。 |
tSalesforceGetDeleted | 特定の期間中に削除されたデータをSalesforceオブジェクトから収集します。 |
tSalesforceGetServerTimestamp | タイムスタンプ形式で提示されたSalesforceサーバーの現在の日付を取得します。 |
tSalesforceGetUpdated | 特定の期間中にアップデートされたデータをSalesforceオブジェクトから収集します。 |
tSalesforceInput | クエリーに基づいてSalesforceオブジェクトからデータを取得します。 |
tSalesforceOutput | Salesforceオブジェクトのデータを挿入、アップデート、アップサート、削除します。 |
tSalesforceOutputBulk | バルク処理のためにtSalesforceBulkExecコンポーネントで処理するファイルを生成します。 |
tSalesforceOutputBulkExec | 特定のファイルのデータをSalesforceオブジェクトに一括ロードします。 |
Salesforceのシナリオ
Samba
Sambaのコンポーネント
tSambaClose | tSambaConnectionコンポーネントで作成されたアクティブなSamba接続を閉じます。このコンポーネントではSambaのバージョン2とバージョン3がサポートされています。 |
tSambaConnection | ファイルを管理するSambaホストへの接続を開きます。このコンポーネントではSambaのバージョン2とバージョン3がサポートされています。 |
tSambaDelete | ディレクトリー内のファイル、または共有ディレクトリーの下にあるディレクトリー全体を削除します。このコンポーネントではSambaのバージョン2とバージョン3がサポートされています。 |
tSambaGet | Sambaホストにある共有ディレクトリーからファイルを取得します。このコンポーネントではSambaのバージョン2とバージョン3がサポートされています。 |
tSambaInput | 共有ディレクトリーに保存されているファイルからデータを取得し、後続のコンポーネントに送信して変換します。このコンポーネントではSambaのバージョン2とバージョン3がサポートされています。 |
tSambaList | 共有ディレクトリーの下にあるディレクトリー内のファイルをリスト表示し、ファイル情報を後続のコンポーネントに渡します。このコンポーネントではSambaのバージョン2とバージョン3がサポートされています。 |
tSambaOutput | 共有ディレクトリーの下にあるディレクトリーにファイルを作成し、そのファイルにデータを書き込みます。ファイルが既に存在する場合、このコンポーネントはそのファイルを上書きします。このコンポーネントではSambaのバージョン2とバージョン3がサポートされています。 |
tSambaPut | ローカルファイルを共有ディレクトリーにアップロードします。このコンポーネントではSambaのバージョン2とバージョン3がサポートされています。 |
Sambaのシナリオ
SAP
SAPのコンポーネント
tELTSAPInput | SQL SELECTステートメントを生成するためにtELTSAPMapコンポーネントによって使われるSAPテーブルスキーマを提供します。 |
tELTSAPMap | 1つ以上のtELTSAPInputコンポーネントが提供するテーブルスキーマを使って、SQL SELECTステートメントを作成します。 |
tSAPADSOInput | SAP HANAデータベース上またはSAP Java Connector経由で、SAP BWシステムからアクティブなADSO (Advanced Data Store Object)のデータを取得します。 |
tSAPADSOOutput | SAP Java Connector バージョン3を介して、アクティブなADSO (Advanced Data Store Object)にデータを書き込みます。このコンポーネントによって書き込まれたデータは実際にSAP内でステージングされること、そしてtSAPADSOInputによって取得されるよう有効にする必要があることにご注意ください。 |
tSAPBapi | 複数の入出力パラメーターまたはドキュメントタイプパラメーターを使用し、SAPサーバーからデータを抽出、または、SAPサーバーへデータのロードを行います。 |
tSAPCommit | すべての行またはバッチごとに実行するのではなく、一意の接続を使い、1つのグローバルトランザクションで一度にコミットするため、パフォーマンスが向上します。 |
tSAPConnection | ジョブデータ全体を一度に1つのトランザクションとしてSAPシステムにコミットします。 |
tSAPDataSourceOutput | データソースオブジェクトをSAP BWデータソースシステムに書き込みます。 |
tSAPDataSourceReceiver | Talend SAP RFCサーバーに保存され、特定のデータソースシステムと関連するデータリクエストを取得します。 |
tSAPDSOInput | SAP BWシステムからDSOデータを取得します。 |
tSAPDSOOutput | SAP BWテーブルでDSOデータを作成またはアップデートします。 |
tSAPHanaBulkExec | SAP HANAデータベースへの挿入操作実行時のパフォーマンスが向上します。 |
tSAPHanaInvalidRows | 特定のデータクオリティ(正規表現)またはデータクオリティルール(ビジネスルール)に対してSAP Hanaデータベース行をチェックします。 |
tSAPHanaUnload | SAP HANAデータベースからサードパーティのシステムに大量のデータをオフロードします。 |
tSAPHanaValidRows | 特定のデータクオリティ(正規表現)またはデータクオリティルール(ビジネスルール)に対してSAP Hanaデータベース行をチェックします。 |
tSAPIDocInput (非推奨) | SAPシステム間、またはSAPシステムと別のアプリケーションの間の非同期トランザクションに使用するIDocデータセットを抽出します。 |
tSAPIDocOutput | XML形式のIDocデータセットをSAPシステムにアップロードします。 |
tSAPIDocReceiver | SAPサーバーに保存されているSAP IDocsからデータを展開します。 |
tSAPInfoCubeInput | SAP BWシステムからInfoCubeデータを取得します。 |
tSAPInfoObjectInput | SAP BWシステムからInfoObjectデータを取得します。 |
tSAPInfoObjectOutput | InfoObjectデータをSAP BWシステムに書き込みます。 |
tSAPODPInput | SAPのERP部分から、ODP (オペレーショナルデータプロビジョニング)を介してビジネスデータを抽出します(SAPビジネスアプリケーション、SAP on HANA、SAP R/3、S4/HANA)。 |
tSAPRollback | 接続されているSAPのトランザクションコミットをキャンセルします。 |
tSAPTableInput | SAPサーバーのSAPテーブルからデータを読み取ります。 |
tSAPHanaClose | SAP HANAデータベースへの接続を閉じます。 |
tSAPHanaCommit | すべての行またはバッチごとに実行するのではなく、一意の接続を使い、1つのグローバルトランザクションで一度にコミットするため、パフォーマンスが向上します。 |
tSAPHanaConnection | ジョブ内の他のSAP HANAのコンポーネントによって再利用されるSAP HANA接続を確立します。 |
tSAPHanaInput | スキーマ定義に対応する必要がある定義されたコマンドでデータベースクエリーを実行します。 |
tSAPHanaOutput | ジョブ内の先行するコンポーネントからのフローをベースに、テーブルで、またはテーブルに含まれているデータで定義されているアクションを実行します。 |
tSAPHanaRollback | トランザクションの一部が意図せずコミットされることを防ぎます。 |
tSAPHanaRow | 実際のデータベースストラクチャーやデータに働きかけます(ただし、データは処理されません)。 |
SAPのシナリオ
- IDocファイルの作成をリスニングするために特定のSAP R/3システムに接続(非推奨)
- SSL転送を使ってデータソースオブジェクトを利用
- tHMapによる処理のためにIDocを消費
- tSAPHanaUnloadを使ってデータをエクスポート
- tSAPInfoCubeInputを使ってデータを抽出する
- SAP BWからADSOデータを取得
- ダイナミックスキーマを使ってSAPテーブルからデータを取得
- ODP経由でSAPからデータを取得
- ドキュメントタイプパラメーターを使い、BAPI関数を呼び出して、SAPシステムからデータを取得する
- 複数の入出力パラメーターを使ったBAPI関数の呼び出しでSAPシステムからデータを取得する
- 複数のSAPテーブルのデータを集計およびフィルタリング
SCD
SCDのコンポーネント
tDB2SCD | Slowly Changing Dimensionのニーズに対応し、データソースを定期的に読み取り、変更を専用のSCDテーブルに記録します。 |
tGreenplumSCD | Slowly Changing Dimensionのニーズに対応し、データソースを定期的に読み取り、変更を専用のSCDテーブルに記録します。 |
tInformixSCD | InformixSCD専用テーブルに加えられた変更を追跡および表示します |
tIngresSCD | 専用Ingres SCDのテーブルの変更を反映し、追跡します。 |
tMSSqlSCD | Microsoft SQL ServerまたはAzure SQLデータベースの専用SCDテーブルの変更を追跡して反映します。 |
tMysqlSCD | 専用MySQL SCDのテーブルの変更を反映し、追跡します。 |
tNetezzaSCD | 専用Netezza SCDのテーブルの変更を反映し、追跡します。 |
tOracleSCD | 専用Oracle SCDのテーブルの変更を反映し、追跡します。 |
tPostgresPlusSCD | Slowly Changing Dimensionのニーズに対応し、データソースを定期的に読み取り、変更を専用のSCDテーブルに記録します。 |
tPostgresqlSCD | Slowly Changing Dimensionのニーズに対応し、データソースを定期的に読み取り、変更を専用のSCDテーブルに記録します。 |
tSybaseSCD | Slowly Changing Dimensionのニーズに対応し、データソースを定期的に読み取り、変更を専用のSCDテーブルに記録します。 |
tTeradataSCD | Slowly Changing Dimensionのニーズに対応し、データソースを定期的に読み取り、変更を専用のSCDテーブルに記録します。 |
tVerticaSCD | 専用のVerticaデータベースSCDのテーブルのデータの変更を反映し、追跡します。 |
SCDのシナリオ
SCDELT
SCDELTのコンポーネント
tDB2SCDELT | SQLクエリー(サーバー側の処理モード)を通じてSlowly Changing Dimensionのニーズに対応し、変更を専用のDB2 SCDテーブルに記録します。 |
tJDBCSCDELT | SCD(Slowly Change Dimensions)タイプ1メソッドを使用して、ソースデータベーステーブルのデータ変更を追跡します and/or タイプ2の方法で、現在のデータと履歴データの両方を指定されたSCDディメンションテーブルに書き込みます。 |
tMysqlSCDELT | SQLクエリーにより専用MySQL SCDテーブルの変更を反映し、追跡します。 |
tOracleSCDELT | SQLクエリーにより専用のOracle SCDテーブルの変更を反映し、追跡します。 |
tPostgresPlusSCDELT | SQLクエリー(サーバー側の処理モード)を通じてSlowly Changing Dimensionのニーズに対応し、変更を専用のPostgresPlus SCDテーブルに記録します。 |
tPostgresqlSCDELT | SQLクエリー(サーバー側の処理モード)を通じてSlowly Changing Dimensionのニーズに対応し、変更を専用のDB2 SCDテーブルに記録します。 |
tSybaseSCDELT | SQLクエリー(サーバー側の処理モード)を通じてSlowly Changing Dimensionのニーズに対応し、変更を専用のSybase SCDテーブルに記録します。 |
tTeradataSCDELT | SQLクエリー(サーバー側処理モード)を介して緩やかに変化するディメンションのニーズに対応し、変更を専用のTeradataSCDテーブルに記録します。 |
SCDELTのシナリオ
SCP
SCPのコンポーネント
tSCPClose | SCPプロトコルへの接続を閉じます。 |
tSCPConnection | SCP接続を開いて、1つのトランザクションでファイルを転送します。 |
tSCPDelete | 定義されたSCPサーバーからファイルを削除します。 |
tSCPFileExists | 定義済みのSCPサーバーのファイルの存在を確認します。 |
tSCPFileList | 定義されたSCPサーバーからファイルをリスト表示します。 |
tSCPGet | 定義されたSCPサーバーからファイルをコピーします。 |
tSCPPut | 定義されたSCPサーバーにファイルをコピーします。 |
tSCPRename | 定義されたSCPサーバーのファイルの名前を変更します。 |
tSCPTruncate | SCP接続を介して、定義されたSCPサーバーのファイルからデータを削除します。 |
SCPのシナリオ
ServiceNow
ServiceNowのコンポーネント
tServiceNowConnection | 他のServiceNowのコンポーネントで再利用できる ServiceNowインスタンスへの接続を開きます。 |
tServiceNowInput | ServiceNowにアクセスし、そこからデータを取得します。 |
tServiceNowOutput | ServiceNowのデータに対して定義されたアクションを実行します。 |
SingleStore
SingleStoreのコンポーネント
tSingleStoreBulkExec | JDBC APIで接続したデータベースのテーブルにファイルからのデータをロードします。 |
tSingleStoreClose | アクティブなSingleStore接続を閉じて、占有されているリソースを解放します。 |
tSingleStoreCommit | すべての行またはバッチごとに実行するのではなく、1つのグローバルトランザクションで一度にコミットするため、パフォーマンスが向上します。 |
tSingleStoreConnection | 後続のサブジョブで再利用できる、指定したデータベースへの接続を開きます。 |
tSingleStoreInput | JDBC API接続を使用して任意のデータベースを読み取り、クエリーに基づいてフィールドを抽出します。 |
tSingleStoreOutput | ジョブ内の先行するコンポーネントからのフローをベースに、テーブルに含まれているデータで定義されているアクションを実行します。 |
tSingleStoreOutputBulk | 接続したデータベースにフィードするためのパラメーターとして使うバルクファイルを準備します。 |
tSingleStoreOutputBulkExec | JDBC APIで接続したデータベースのテーブルにファイルからのデータをロードする時のパフォーマンスを向上させます。 |
tSingleStoreRollback | 接続されたデータベースでコミットされたトランザクションをキャンセルすることで、誤ってトランザクションの一部をコミットしないようにします。 |
tSingleStoreRow | SQLBuilderツールを使って実際のDB 構造またはデータに働きかけ(ただし、データ処理は行いません)、SQLステートメントを簡単に書くことができます。 |
tSingleStoreSP | 複数または複雑なクエリーをデータベースに一元化して、簡単に呼び出すことができます。 |
Snowflake
Snowflakeのコンポーネント
tSnowflakeConfiguration | Apache Spark Batchフレームワークの他のSnowflakのコンポーネントで再利用される接続情報と認証情報を保管します。 |
tSnowflakeBulkExec | フォルダ内のファイルからSnowflakeテーブルにデータをロードします。フォルダーは、内部Snowflakeステージ、Amazon Simple Storage Service(Amazon S3)バケット、またはAzureコンテナーに配置できます。 |
tSnowflakeClose | アクティブなSnowflake接続を閉じて、占有されているリソースを解放します。 |
tSnowflakeCommit | パフォーマンスが向上します。 |
tSnowflakeConnection | 他のSnowflakeのコンポーネントで再利用できる Snowflakeへの接続を開きます。 |
tSnowflakeInput | SQLクエリに基づいて、Snowflakeテーブルからジョブのデータフローにデータを読み取ります。 |
tSnowflakeOutput | 前のコンポーネントから受信したデータを使用して、スノーフレークテーブルのデータを挿入、アップデート、アップサート、削除します。 |
tSnowflakeOutputBulk | フォルダーに生成されたファイルに受信データを書き込みます。フォルダーは、内部Snowflakeステージ、Amazon Simple Storage Service(Amazon S3)バケット、またはAzureコンテナーに配置できます。 |
tSnowflakeOutputBulkExec | フォルダに生成されたファイルに受信データを書き込み、そのデータをSnowflakeデータベーステーブルにロードします。フォルダーは、内部Snowflakeステージ、Amazon Simple Storage Service(Amazon S3)バケット、またはAzureコンテナーに配置できます。 |
tSnowflakeRollback | Snowflakeデータベースのトランザクションのコミットをキャンセルして、トランザクションの一部が意図せずにコミットされることを防ぎます。 |
tSnowflakeRow | 指定したSnowflakeデータベースに対して記述されたSQLコマンドを実行します。 |
Snowflakeのシナリオ
SOAP
SOAPのコンポーネント
tSOAP | コンポーネントエディターで定義されたパラメーターの値を取得するためにWebサービスを介してメソッドを呼び出します。 |
SOAPのシナリオ
Socket
Socketのコンポーネント
tSocketInput | ソケットポートを開き、受信データを待ち受けます。 |
tSocketOutput | 入力フローからリスニングソケットポートにデータを送信します。 |
Socketのシナリオ
Splunk
Splunkのコンポーネント
tSplunkEventCollector | SplunkHTTPイベントコレクターを介してイベントデータをSplunkに送信します。 |
SQLite
SQLiteのコンポーネント
tSQLiteClose | 接続されたDBでコミットされたトランザクションをクローズします。 |
tSQLiteCommit | すべての行またはバッチごとに実行するのではなく、一意の接続を使い、1つのグローバルトランザクションで一度にコミットするため、パフォーマンスが向上します。 |
tSQLiteConnection | 現在のトランザクションのデータベースへの接続を開きます。 |
tSQLiteInput | スキーマ定義に対応する必要がある定義されたコマンドでDBクエリーを実行します。[Main] (メイン)行リンクが使われ、行が後続のコンポーネントに渡されます。 |
tSQLiteOutput | ジョブ内の先行するコンポーネントからのフローをベースに、テーブルで、またはテーブルに含まれているデータで定義されているアクションを実行します。 |
tSQLiteRollback | 接続された SQLiteデータベースでコミットされたトランザクションをクローズします。 |
tSQLiteRow | 指定されたデータベースに対して定義されたクエリーを実行し、カラムにバインドされたパラメーターを使用します。 |
SQLiteのシナリオ
SQLTemplate
SQLTemplateのコンポーネント
tSQLTemplate | たとえば、テーブルを削除/作成するために、一般的なデータベースアクションまたはカスタマイズされたSQLステートメントテンプレートを実行します。 |
tSQLTemplateAggregate | 値または計算に基づいて行列のセットを提供します。 |
tSQLTemplateCommit | すべての行または行のバッチごとに個別に行うのではなく、単一の接続を使用して一度にグローバルアクションをコミットします。これにより、パフォーマンスが向上します |
tSQLTemplateFilterColumns | 新しいカラムを再編成、削除、または追加することにより、スキーマを均質化します。 |
tSQLTemplateFilterRows | WHERE句に基づいて、任意のデータソースの行フィルターを設定するために使われます。 |
tSQLTemplateMerge | MERGEステートメントを作成して実行することで、DBMSのデータベーステーブルにデータを直接マージします。 |
tSQLTemplateRollback | 接続されたSQLTemplateデータベースでコミットされたトランザクションをクローズします。 |
SQLTemplateのシナリオ
Sqoop
Sqoopのコンポーネント
tSqoopExport | SqoopがデータをRDBMSに転送するために必要とする引数を定義します。 |
tSqoopImport | 目的のデータをHDFSに書き込むためにSqoopで必要となる引数を定義します。 |
tSqoopImportAllTables | データベースのすべてのテーブルをHDFSに書き込むためにSqoopで必要となる引数を定義します。 |
tSqoopMerge | 古いデータセットを新しいレコードでアップデートするインクリメンタルインポートを実行します。新旧のデータセットのファイルタイプは同じである必要があります。 |
Sqoopのシナリオ
SVNLog
SVNLogのコンポーネント
tSVNLogInput | SVNリポジトリーから指定されたリビジョンまたはリビジョン範囲の情報を取得します。 |
SVNLogのシナリオ
Sybase
Sybaseのコンポーネント
tSybaseBulkExec | Sybaseデータベースの挿入操作のパフォーマンスが向上します。 |
tSybaseClose | 接続されたデータベースでコミットされたトランザクションをクローズします。 |
tSybaseCommit | すべての行またはバッチごとに実行するのではなく、一意の接続を使い、1つのグローバルトランザクションで一度にコミットするため、パフォーマンスが向上します。 |
tSybaseConnection | 現在のトランザクションのデータベースへの接続を開きます。 |
tSybaseInput | 定義された順序でDBクエリーを実行します。これはスキーマ定義に完全に対応している必要があります。 |
tSybaseIQBulkExec | フラットファイルまたは他のデータベーステーブルからSybaseデータベーステーブルにデータをロードします。 |
tSybaseIQOutputBulkExec | Sybase IQデータベースの挿入操作のパフォーマンスが向上します。 |
tSybaseOutput | ジョブ内の先行するコンポーネントからのフローをベースに、テーブルで、またはテーブルに含まれているデータで定義されているアクションを実行します。 |
tSybaseOutputBulk | INSERTクエリーのパラメーターとして使うファイルを準備し、Sybaseデータベースにフィードします。 |
tSybaseOutputBulkExec | Sybaseデータベースの挿入操作のパフォーマンスが向上します。 |
tSybaseRollback | 接続されたデータベースでコミットされたトランザクションをクローズします。 |
tSybaseRow | 実際のDB構造やデータに働きかけます(ただし、データは処理されません)。 |
tSybaseSP | Sybaseデータベースのストアドプロシージャを呼び出します。 |