Integration Databricks Databricks

Databricks × Codatum

Databricks SQL WarehouseにOAuth M2Mで接続し、SQLエディタ・AI Agent・レポート共有でチーム分析を行えます。Databricks SQLに対応したシンタックスハイライト・補完・フォーマッタを搭載。Unity Catalogのスキーマを自動認識し、Delta LakeやLakehouse Federation経由のデータにもアクセスできます。

クレジットカードは不要です

Databricks

Databricksでこんな課題はありませんか?

Workspaceライセンスが高価で全員に出せない
Databricksの課金はDBUベースの従量課金に加え、エンタープライズ契約は高額です。SQLで分析したいだけのメンバーやビジネスサイド全員にWorkspaceアカウントを発行するのは現実的ではありません。
SQLアナリストの体験がNotebook中心設計に合わない
DatabricksはPython / ScalaのNotebookを中心に設計されており、SQLエディタでのクエリ共有やチーム運用の仕組みはNotebookほど充実していません。SQLだけで分析するアナリストにとってはギャップがあります。
閲覧のたびにSQL Warehouseのコストが積み上がる
SQL WarehouseはDBUの従量課金です。同じダッシュボードを複数人が開くたびにWarehouseが起動し、DBUが消費されます。AI/BIダッシュボードでもこの構造は変わりません。
テーブルのビジネス上の意味がAIに伝わらない
スキーマやカラム名などの技術メタデータだけでは、「この売上テーブルは国内B2Bの月次確定値」といったビジネス文脈をAIが把握できません。正確なSQL生成には、チームが持つ業務知識を構造的に蓄積する仕組みが必要です。
分析共有がWorkspaceに縛られる
Databricks AI/BIダッシュボードの閲覧にはWorkspaceアクセスが必要です。ビジネスメンバー全員にライセンスを発行するのはコスト面でハードルがあり、Workspace外への共有手段が限られます。

DatabricksとCodatumの接続でできること

データレイクハウスをSQLチーム分析の基盤に 注目
DatabricksはNotebook中心のデータエンジニアリングプラットフォームです。SQLだけで分析したいアナリストにとって、チームでのクエリ管理・共有・再利用の仕組みが十分ではありません。Codatumを接続することで、データエンジニアがDelta Lakeに構築したデータを、SQLエディタ・AI Agent・レポート共有で分析できるチームプラットフォームに変わります。
SQL Warehouseの不要な起動を減らす
Databricks SQL WarehouseはDBU(Databricks Unit)の従量課金です。同じレポートを複数人が開くたびにWarehouseが起動するとコストが膨らみます。Codatumはクエリ結果をコネクション単位でキャッシュし、チームの誰がアクセスしても同じキャッシュを返すことで、不要なWarehouse起動とクエリ発行を削減します。
Unity Catalog × Codatumカタログで分析精度を向上
Unity CatalogのCatalog → Schema → Tableの3階層を自動認識します。さらにCodatumカタログでテーブルやカラムにビジネス上の意味を付与すると、AI Agentがその文脈を理解したDatabricks SQLを生成します。Unity Catalogのメタデータだけでは伝わらない「この売上テーブルはどの部門のどの指標か」を補えます。
Workspaceライセンスなしで分析結果を届ける
Databricks Workspaceのライセンスは高価で、ビジネスサイドの全員に発行するのは現実的ではありません。レポート配信・Slack通知・外部埋め込みを通じて、Workspaceアカウントを持たないメンバーにもデータレイクハウスの分析結果を届けられます。

関連ユースケース

Delta Lake + SQL Warehouse
データレイクハウス分析
S3やADLS上のDeltaテーブルをSQL Warehouse経由で分析できます。ACIDトランザクションとタイムトラベルを活かした正確なデータ探索が可能です。
データソース: Delta Lake (S3 / ADLS)
Lakehouse Federation
クロスソース分析
Lakehouse FederationでMySQLやPostgreSQLのデータをDatabricksから直接クエリできます。ETLを組まずに複数データソースを横断した分析が可能です。
データソース: MySQL, PostgreSQL (Federation)
Delta Sharing
組織間データ分析
Delta Sharingで外部組織から共有されたデータを、追加のデータコピーなしで分析できます。パートナーやグループ会社とのデータ連携に活用できます。
データソース: Delta Sharing
Iceberg + Delta Lake
オープンフォーマット分析
Apache IcebergテーブルをUniForm経由で読み取り、Deltaテーブルと組み合わせた分析ができます。マルチエンジン環境でのデータ活用に適しています。
データソース: Iceberg (UniForm), Delta Lake
Streaming + SQL Warehouse
リアルタイムデータの集計分析
Structured StreamingやDelta Live Tablesで取り込んだリアルタイムデータを、SQL Warehouseで集計・可視化できます。最新のデータに基づくレポートを作成できます。
データソース: Delta Live Tables, Streaming
ML Feature Store
ML特徴量の探索・検証
Feature Storeに登録された特徴量テーブルをSQLで探索し、データの分布や品質を検証できます。MLパイプラインの入力データの理解に役立ちます。
データソース: Feature Store (Unity Catalog)

DWH・データ分析に精通した担当が、
活用方法やデータ連携のご相談に対応します

対応データソースやインテグレーションについてお気軽にご相談ください

Databricks固有の対応

CodatumのDatabricksコネクタが対応する、Databricksならではの機能です

Databricks SQL対応
QUALIFY, TABLESAMPLE, LEFT SEMI JOIN, LEFT ANTI JOIN等のDatabricks SQL / Spark SQL固有構文に対応したシンタックスハイライト・補完・フォーマッタを搭載しています。VARIANT, MAP, STRUCT等の複合データ型にも対応しています。Databricks固有関数のリファレンスも内蔵しており、エディタ上で仕様を確認できます。
Unity Catalogスキーマ認識
Unity Catalog APIを通じてCatalog → Schema → Tableの3階層を自動探索します。テーブルのカラム情報、コメント、統計情報(行数・サイズ)もUnity Catalogから取得し、UIに表示します。Managed, External, View, Materialized View, Streaming Table等のテーブルタイプも正しく認識します。
OAuth M2M認証
サービスプリンシパルのOAuth M2M(Client ID + Client Secret)で接続します。個人アカウントではなくサービスプリンシパルを使うことで、チーム運用に適した接続管理が可能です。
SQL Warehouse指定
接続時にSQL WarehouseのHost / HTTP Path / Warehouse IDを指定します。用途に応じて異なるWarehouseを使い分けることで、コストとパフォーマンスを制御できます。
AI AgentのDatabricks対応
AI Agentに「Databricks SQL syntax」の方言情報を注入します。Databricks固有関数のリファレンスも参照し、正確なDatabricks SQLを生成します。

Databricksのエコシステム

DatabricksのExternal Location・Lakehouse Federation・Delta Sharingを通じて、Codatumからアクセスできるデータソースです。 Databricks側の設定だけで、追加のコネクタは不要です。

Amazon S3
Amazon S3
External Location — Delta, Parquet, CSV, JSON
Azure Blob Storage
Azure Data Lake Storage
External Location
Google Cloud Storage
Google Cloud Storage
External Location
Delta Lake
Delta Lake
ネイティブ対応 — ACID, タイムトラベル
Apache Iceberg
Apache Iceberg
UniForm経由のネイティブ読み取り
MySQL
MySQL / PostgreSQL
Lakehouse Federation
Snowflake
Snowflake
Lakehouse Federation
BigQuery
Google BigQuery
Lakehouse Federation
Amazon Redshift
Amazon Redshift
Lakehouse Federation

よくある質問

CodatumでDatabricksに接続するには何が必要ですか?
Databricks Workspaceのサービスプリンシパル(Client IDとClient Secret)と、SQL Warehouseの接続情報(Host / HTTP Path / Warehouse ID)があれば、約5分で接続できます。詳しくはセットアップガイドをご確認ください。
Databricksの課金は増えますか?
SQL Warehouseでのクエリ実行時にDBU(Databricks Unit)課金が発生します。Codatumはクエリ結果をキャッシュし、同じ結果の再取得時にはSQL Warehouseへのクエリ発行を削減します。レポートを複数メンバーが閲覧する場合でも、キャッシュが共有されるため不要なWarehouse起動を抑えられます。
DatabricksのデータをAIで分析できますか?
Codatum AgentはUnity Catalogのスキーマを自動認識し、Databricks SQLを生成します。カタログにメタデータを登録すれば、Agentの分析精度がさらに向上します。
Lakehouse Federation経由のデータも分析できますか?
DatabricksのLakehouse Federationで接続された外部データソース(MySQL, PostgreSQL, Snowflake等)は、Databricks側の設定だけでCodatumから追加設定なしでクエリ可能です。
Databricks固有のSQL構文に対応していますか?
Databricks SQLに対応しています。QUALIFY, LEFT SEMI JOIN, LEFT ANTI JOIN等の固有構文に対応したシンタックスハイライト、補完、フォーマッタを搭載しています。VARIANT, MAP, STRUCT等の複合データ型にも対応しています。
Databricks AI/BIダッシュボードとの違いは何ですか?
Databricks AI/BIダッシュボードはDatabricksプラットフォーム内のダッシュボード機能です。CodatumはSQLエディタ、AI Agent、@sql参照によるクエリのモジュール化、カタログ、コネクション単位のキャッシュ共有を提供します。SQLを書いてチームで分析するワークフローや、Databricksアカウントを持たないメンバーへの共有に向いています。

接続の概要

認証方式
OAuth M2M(Client ID + Client Secret)
必要なもの
Databricks Workspace、SQL Warehouse、サービスプリンシパル
対応SQL
Databricks SQL
ステータス
Preview
⏱ セットアップ: 約5分
サービスプリンシパルのClient IDとClient Secretを入力するだけで接続できます。セットアップガイドを見る →

Databricksに接続して、チーム分析を始めましょう

サービスプリンシパルで接続して、SQLエディタとAI Agentで分析を始められます

クレジットカードは不要です