Integration Amazon S3 Amazon S3

Amazon S3 × Codatum

Amazon S3のデータをSnowflake / Redshift / Databricks経由で分析できます。ログ分析、データレイク探索、異常検知をSQLとAIで実現。Lambdaパイプラインなしで自動化まで完結します。

クレジットカードは不要です

Amazon S3

S3とCodatumの接続でできること

DWH経由でS3データにSQLでアクセス 注目
Snowflake External StageやRedshift SpectrumでS3バケットをExternal Tableとして登録すれば、CodatumからSQLで直接クエリできる。Athenaのスキャン課金や可視化の制約から解放される。
複雑なスキーマもCatalog × Agentで探索
Parquet / JSONのネスト構造をCatalogに登録すれば、AgentがSTRUCT / ARRAYを理解したSQLを自然言語から生成。UNNESTを手書きする必要がなくなる。
SQLだけで異常検知・定期集計を自動化
WorkflowでSQLクエリをスケジュール実行し、閾値超過でSlack通知。Lambda + EventBridge + SNSのインフラを構築・運用する必要がない。
SaaS・DBデータとの統合分析
S3のログデータとGA4・Salesforce等のSaaSデータが同じDWHにあれば、SQLでJOINするだけ。Athenaでは不可能だったクロスソース分析が可能になる。

関連ユースケース

アプリログ + S3 × GridPage
アプリケーションログ分析
S3に出力されたアプリケーションログ(JSON / Parquet)からエラー率、レスポンスタイム、リクエスト数をSQLで集計し、GridPageで日次ダッシュボードとして常時表示できる。
Parquet / JSON × Agent + Catalog
データレイク探索
S3上のテーブルをCatalogに登録すれば、Agentがネスト構造(STRUCT / ARRAY)を理解したSQLを自然言語から生成する。UNNESTの書き方を知らなくてもデータを探索できる。
スキーマ定義 × DocPage + Saved Query
ETLロジックのドキュメント化
Parquet / JSONの展開ロジックをSaved Queryで一元管理し、DocPageにスキーマ定義と変換意図を記述する。属人化したSQLナレッジをチーム資産にできる。
エラー監視 × Workflow
異常検知アラート
エラー率やレイテンシの急上昇を日次で自動集計し、閾値を超えた場合にSlackやEmailで即通知する。Lambda + CloudWatchを組む必要はない。
データ品質 × Template + Workflow
データ品質モニタリング
NULL率、重複行、スキーマドリフト(カラム追加・型変更)をSQLで定期チェックし、品質レポートをテンプレート化して毎週自動配信できる。
S3 + SaaS × Explorer
クロスソース統合分析
S3のイベントログとGA4やSalesforce等のデータを同じDWH上でJOINし、Explorerでパラメータを切り替えながら横断分析できる。

対応データウェアハウス

Amazon S3のデータにアクセスできるデータウェアハウスです。

設定方法

S3のデータはDWHのExternal Table機能で直接クエリできます。Codatum側の追加設定は不要です。

Amazon S3
External Table / Spectrum
Snowflake / Redshift / Databricks / BigQuery
Codatum

DWHからS3バケットへのアクセス権限を設定し、External Tableを作成します。データをDWHにコピーせず、S3上のファイルを直接クエリすることも可能です。対応するDWHに接続済みのCodatumから、追加設定なしでクエリできます。

よくある質問

CodatumはAmazon S3に直接接続しますか?
いいえ、CodatumはSnowflake / Redshift / Databricks等のデータウェアハウスに接続します。S3のデータはDWHのExternal Table機能(Snowflake External Stage, Redshift Spectrum等)を通じてアクセスします。
S3のデータをDWHで分析するにはどうすればいいですか?
DWHからS3バケットへのIAMアクセス権限を設定し、External Tableを作成します。データをDWHにコピーせず、S3上のファイルを直接クエリすることも可能です。詳しくは各DWHの公式ドキュメントをご確認ください。
Athenaとの違いは何ですか?
Athenaはクエリのたびにスキャン量に応じた課金が発生し、キャッシュ・可視化・スケジュール実行の機能がありません。DWH + Codatumなら、キャッシュによるコスト最適化、GridPageでの可視化、Workflowでの自動化までSQLだけで完結します。
ParquetやJSONのネスト構造にも対応していますか?
はい、DWHのExternal TableはネストされたParquet / JSONスキーマを認識します。CodatumではCatalogにテーブルを登録すれば、Agentがネスト構造を理解したSQLを自然言語から生成できます。
S3のデータと他のデータソースを統合できますか?
はい、S3のデータと同じDWH上にあるGA4 / Salesforce / Stripe等のデータをSQLでJOINできます。これはS3内のデータにしかアクセスできないAthenaにはない大きな利点です。
DWHの課金は増えますか?
External Tableでクエリする場合、DWH側のコンピュートリソースで課金が発生します。Codatumはクエリ結果をキャッシュするため、同じ結果を繰り返し取得する際の再課金を抑制できます。またDryRun機能でスキャン量を事前確認してから実行できます。

S3のデータレイクを、分析基盤に変えましょう

DWHに接続するだけで、S3の生データにSQLとAIでアクセスできます

クレジットカードは不要です