Integration Databricks Databricks

Databricks × Codatum

Databricks SQL WarehouseにOAuth M2Mで接続し、SQLエディタ・AI Agent・レポート共有でチーム分析を行えます。Databricks SQLに対応したシンタックスハイライト・補完・フォーマッタを搭載。Unity Catalogのスキーマを自動認識し、Delta LakeやLakehouse Federation経由のデータにもアクセスできます。

クレジットカードは不要です

Databricks

DatabricksとCodatumの接続でできること

データレイクハウスをSQLチーム分析の基盤に 注目
DatabricksはNotebook中心のデータエンジニアリングプラットフォームです。SQLだけで分析したいアナリストにとって、チームでのクエリ管理・共有・再利用の仕組みが十分ではありません。Codatumを接続することで、データエンジニアがDelta Lakeに構築したデータを、SQLエディタ・AI Agent・レポート共有で分析できるチームプラットフォームに変わります。
SQL Warehouseの不要な起動を減らす
Databricks SQL WarehouseはDBU(Databricks Unit)の従量課金です。同じレポートを複数人が開くたびにWarehouseが起動するとコストが膨らみます。Codatumはクエリ結果をコネクション単位でキャッシュし、チームの誰がアクセスしても同じキャッシュを返すことで、不要なWarehouse起動とクエリ発行を削減します。
Unity Catalog × Codatumカタログで分析精度を向上
Unity CatalogのCatalog → Schema → Tableの3階層を自動認識します。さらにCodatumカタログでテーブルやカラムにビジネス上の意味を付与すると、AI Agentがその文脈を理解したDatabricks SQLを生成します。Unity Catalogのメタデータだけでは伝わらない「この売上テーブルはどの部門のどの指標か」を補えます。
Workspaceライセンスなしで分析結果を届ける
Databricks Workspaceのライセンスは高価で、ビジネスサイドの全員に発行するのは現実的ではありません。レポート配信・Slack通知・外部埋め込みを通じて、Workspaceアカウントを持たないメンバーにもデータレイクハウスの分析結果を届けられます。

関連ユースケース

Delta Lake + SQL Warehouse
データレイクハウス分析
S3やADLS上のDeltaテーブルをSQL Warehouse経由で分析できます。ACIDトランザクションとタイムトラベルを活かした正確なデータ探索が可能です。
データソース: Delta Lake (S3 / ADLS)
Lakehouse Federation
クロスソース分析
Lakehouse FederationでMySQLやPostgreSQLのデータをDatabricksから直接クエリできます。ETLを組まずに複数データソースを横断した分析が可能です。
データソース: MySQL, PostgreSQL (Federation)
Delta Sharing
組織間データ分析
Delta Sharingで外部組織から共有されたデータを、追加のデータコピーなしで分析できます。パートナーやグループ会社とのデータ連携に活用できます。
データソース: Delta Sharing
Iceberg + Delta Lake
オープンフォーマット分析
Apache IcebergテーブルをUniForm経由で読み取り、Deltaテーブルと組み合わせた分析ができます。マルチエンジン環境でのデータ活用に適しています。
データソース: Iceberg (UniForm), Delta Lake
Streaming + SQL Warehouse
リアルタイムデータの集計分析
Structured StreamingやDelta Live Tablesで取り込んだリアルタイムデータを、SQL Warehouseで集計・可視化できます。最新のデータに基づくレポートを作成できます。
データソース: Delta Live Tables, Streaming
ML Feature Store
ML特徴量の探索・検証
Feature Storeに登録された特徴量テーブルをSQLで探索し、データの分布や品質を検証できます。MLパイプラインの入力データの理解に役立ちます。
データソース: Feature Store (Unity Catalog)

Codatumを使ってDWHのポテンシャルを最大化する

複数のDWHを一か所に統合し、クエリコストを最適化し、DWHの権限がないメンバーにも分析結果を届けます

BigQuery
Snowflake
Databricks
マルチクラウド対応
cost コスト削減
cache キャッシュで高速
share 共有・配信
データエンジニア
アナリスト
ビジネスユーザー
データエンジニア
アナリスト
ビジネスユーザー
R
1つの画面で、全員が分析
統合
マルチクラウド

複数のDWHを、ひとつの分析環境に

BigQueryとSnowflakeが社内に混在していても、同じノートブック上で扱えます。M&Aや移行途中でDWHが分散していても、統合を待たずに分析はすぐ一か所にまとめられます。

コスト削減
コストカット

DWHのクエリコストを大幅削減

キャッシュがコネクション単位で共有されるため、チームの誰がレポートを開いてもDWHへの再クエリが発生しません。個人単位のキャッシュと比べて、クエリコストを大幅に抑えられます。

高速化
高速化

キャッシュによるクエリ結果の高速化

クエリ結果をキャッシュし、同じデータの再取得時にはDWHに再問い合わせしません。レポートの閲覧やダッシュボードの表示を高速化しつつ、DWHの課金を抑えます。

共有・配信
共有・配信

分析結果を、組織に届ける

DWHにはクエリ実行の機能はあっても、レポートの定期配信・Slackへの通知・閾値アラート・外部埋め込みといった共有機能はありません。CodatumがDWHの上にこれらを加え、分析を組織に届けます。

Databricks固有の対応

CodatumのDatabricksコネクタが対応する、Databricksならではの機能です

Databricks SQL対応
QUALIFY, TABLESAMPLE, LEFT SEMI JOIN, LEFT ANTI JOIN等のDatabricks SQL / Spark SQL固有構文に対応したシンタックスハイライト・補完・フォーマッタを搭載しています。VARIANT, MAP, STRUCT等の複合データ型にも対応しています。Databricks固有関数のリファレンスも内蔵しており、エディタ上で仕様を確認できます。
Unity Catalogスキーマ認識
Unity Catalog APIを通じてCatalog → Schema → Tableの3階層を自動探索します。テーブルのカラム情報、コメント、統計情報(行数・サイズ)もUnity Catalogから取得し、UIに表示します。Managed, External, View, Materialized View, Streaming Table等のテーブルタイプも正しく認識します。
OAuth M2M認証
サービスプリンシパルのOAuth M2M(Client ID + Client Secret)で接続します。個人アカウントではなくサービスプリンシパルを使うことで、チーム運用に適した接続管理が可能です。
SQL Warehouse指定
接続時にSQL WarehouseのHost / HTTP Path / Warehouse IDを指定します。用途に応じて異なるWarehouseを使い分けることで、コストとパフォーマンスを制御できます。
AI AgentのDatabricks対応
AI Agentに「Databricks SQL syntax」の方言情報を注入します。Databricks固有関数のリファレンスも参照し、正確なDatabricks SQLを生成します。

Databricksのエコシステム

DatabricksのExternal Location・Lakehouse Federation・Delta Sharingを通じて、Codatumからアクセスできるデータソースです。 Databricks側の設定だけで、追加のコネクタは不要です。

Amazon S3
Amazon S3
External Location — Delta, Parquet, CSV, JSON
Azure Blob Storage
Azure Data Lake Storage
External Location
Google Cloud Storage
Google Cloud Storage
External Location
Delta Lake
Delta Lake
ネイティブ対応 — ACID, タイムトラベル
Apache Iceberg
Apache Iceberg
UniForm経由のネイティブ読み取り
MySQL
MySQL / PostgreSQL
Lakehouse Federation
Snowflake
Snowflake
Lakehouse Federation
BigQuery
Google BigQuery
Lakehouse Federation
Amazon Redshift
Amazon Redshift
Lakehouse Federation

よくある質問

CodatumでDatabricksに接続するには何が必要ですか?
Databricks Workspaceのサービスプリンシパル(Client IDとClient Secret)と、SQL Warehouseの接続情報(Host / HTTP Path / Warehouse ID)があれば、約5分で接続できます。詳しくはセットアップガイドをご確認ください。
Databricksの課金は増えますか?
SQL Warehouseでのクエリ実行時にDBU(Databricks Unit)課金が発生します。Codatumはクエリ結果をキャッシュし、同じ結果の再取得時にはSQL Warehouseへのクエリ発行を削減します。レポートを複数メンバーが閲覧する場合でも、キャッシュが共有されるため不要なWarehouse起動を抑えられます。
DatabricksのデータをAIで分析できますか?
Codatum AgentはUnity Catalogのスキーマを自動認識し、Databricks SQLを生成します。カタログにメタデータを登録すれば、Agentの分析精度がさらに向上します。
Lakehouse Federation経由のデータも分析できますか?
DatabricksのLakehouse Federationで接続された外部データソース(MySQL, PostgreSQL, Snowflake等)は、Databricks側の設定だけでCodatumから追加設定なしでクエリ可能です。
Databricks固有のSQL構文に対応していますか?
Databricks SQLに対応しています。QUALIFY, LEFT SEMI JOIN, LEFT ANTI JOIN等の固有構文に対応したシンタックスハイライト、補完、フォーマッタを搭載しています。VARIANT, MAP, STRUCT等の複合データ型にも対応しています。
Databricks AI/BIダッシュボードとの違いは何ですか?
Databricks AI/BIダッシュボードはDatabricksプラットフォーム内のダッシュボード機能です。CodatumはSQLエディタ、AI Agent、@sql参照によるクエリのモジュール化、カタログ、コネクション単位のキャッシュ共有を提供します。SQLを書いてチームで分析するワークフローや、Databricksアカウントを持たないメンバーへの共有に向いています。

接続の概要

認証方式
OAuth M2M(Client ID + Client Secret)
必要なもの
Databricks Workspace、SQL Warehouse、サービスプリンシパル
対応SQL
Databricks SQL
ステータス
Preview
⏱ セットアップ: 約5分
サービスプリンシパルのClient IDとClient Secretを入力するだけで接続できます。セットアップガイドを見る →

Databricksに接続して、チーム分析を始めましょう

サービスプリンシパルで接続して、SQLエディタとAI Agentで分析を始められます

クレジットカードは不要です