出し入れ先が案件によって複数あるのでメモしておく。なお、awsはよく使うけどbigqueryは詳しくないので割愛させて頂きます。
ローカルファイルをtreasureへアップロード
数年前まではwebコンソールから100MB程度のデータはアップロードできた記憶だが(少なっ!!)ひっそりとクローズしたっぽい、そもそもここ数年はコンソールTOPからは遷移先すらなかったから廃止予定だったのだろうと思われる。
↓↓コンソールへリダイレクトされ機能していない
https://console.treasuredata.com/import/file
・・・・・と思っていたら場所を変えて、普通にデータコネクタの中にCSVがありました。これを使えばよいらしい。但しデータは軽いのじゃないとダメ見たい(そりゃそうだ)
なので大きなファイルはtdコマンドを使ってimportをする必要がある。これは過去記事にまとめたので見てみてください。
もしかしたらetlツールをodbc接続してcreate tableすれば出来るのかも。めんどくさいので機会があれば試します。
s3ファイルをtreasureへimport
TDのデータコネクタを使う方法
いわゆるGUIでポチポチするやつ。
https://tddocs.atlassian.net/wiki/spaces/PD/pages/5112496/Amazon+S3+Export+Integration
TDコマンドを使う方法
Amazon S3からArm Treasure Dataにデータを直接インポートする方法です。実行にはtoolbeltの事前インストールが必要です。
https://tddocs.atlassian.net/wiki/spaces/PD/pages/1082068/Legacy+Bulk+Import+for+AWS+S3#Downloads
treasureのファイルをs3にimport
TDのデータコネクタを使う方法
https://tddocs.atlassian.net/wiki/spaces/PD/pages/1082523/Amazon+S3+Import+Integration
ちなみにやったことないけどRedShiftにも直接importできるらしい。
TDコマンドを使う方法
td table:export コマンドでS3にExportできる。実行にはtoolbeltの事前インストールが必要です。
https://tddocs.atlassian.net/wiki/spaces/PD/pages/1083733/Using+Bulk+Export+to+Amazon+S3+Bucket