メイン コンテンツをスキップする 補完的コンテンツへスキップ

ローカルファイルのデータのロード

手順

  1. tHDFSPutをダブルクリックし、[Basic settings] (基本設定)ビューでコンポーネントを定義します。
  2. たとえば、[Hadoop version] (Hadoopのバージョン)リストからApache 0.20.2を選択します。
  3. NameNode URI[Username] (ユーザー名)フィールドと[Group] (グループ)フィールドに、HDFSへの接続パラメーターを入力します。 WebHDFSを使用している場合、ロケーションはwebhdfs://masternode:portnumberとなります。WebHDFS with SSLはまだサポートされていません。
  4. [Local directory] (ローカルディレクトリー)フィールドの横にある[...]ボタンをクリックして、HDFSにロードするファイルのフォルダーを参照します。このシナリオでは、tFileOutputDelimitedを設定しながらディレクトリーC:/hadoopfiles/putFile/を指定しています。
  5. [HDFS directory] (HDFSディレクトリー)フィールドに、ロードするファイルの格納先にするHDFS内の場所を入力します。この例では/testFileです。
  6. [Overwrite file] (ファイルの上書き)フィールドをクリックしてドロップダウンリストを表示します。
  7. メニューから[always] (常時)を選択します。
  8. [Files] (ファイル)エリアで[+]ボタンをクリックして、ロードするファイルを定義するための行を追加します。
  9. [File mask] (ファイルマスク)カラムに*.txtと入力して、引用符に囲まれたnewLineを置き換えます。[New name] (新しい名前)カラムはそのままにしておきます。これで、指定のディレクトリーからすべての.txtファイルを、名前を変更せずに抽出できます。この例では、ファイルはin.txtです。

このページは役に立ちましたか?

このページまたはコンテンツに、タイポ、ステップの省略、技術的エラーなどの問題が見つかった場合は、お知らせください。改善に役立たせていただきます。