AIをデータ基盤につないだだけでは、なぜうまくいかないのか

By Tomoya Koike
Cover image of the article

Contents

この記事のポイント

AIをデータ基盤につないでも、それだけでは正確な分析はできません。組織のデータ活用を定着させるには「好循環」を回し続ける必要があります。本記事では、AIが育つデータ活用の好循環の各ステップで起きがちな課題と解決策、そしてCodatumがどう解いているかを詳しく解説します。

AIをデータ基盤につないだだけでは、なぜうまくいかないのか

ChatGPTをデータベースにつないで「売上分析して」と言えば、もう分析は終わり——2026年3月現在、AIはまだそこまでは到達していません。私たちCODATUMは、BIツールを開発・提供する中で、こうしたデータ活用の現場を数多く見てきました。

ChatGPTやClaudeをデータウェアハウスに直接つなぐことは、技術的にはもう可能になっています。しかし実際にやってみると、AIは高い確率で間違った分析を出してきます。

その理由は、正確なデータ分析にはSQLやPythonを書く力だけでなく、以下のような深い文脈の理解が必要だからです。

  • ビジネスドメインの知識

    — どの指標が何を意味し、数値の動きがビジネス上の何を反映しているか

  • 社内のデータ活用の原則

    — どのテーブルをどう使うべきか、どのデータが信頼でき、どれに注意が必要か

  • データ品質の担保

    — 欠損・異常値・定義の揺れなど、そのまま集計すると誤った結論につながるデータの扱い

AIはSQLやPythonのコードはすぐに書いてくれます。しかし、どのテーブルを使い、どう集計し、何を除外すべきかといった「分析の中身」の部分は、環境が整っていないとかなりの割合で間違えます。一見それっぽいグラフが出てきて、「お、できた」と思ったら、実は全然違うテーブルを参照していた——そんなことが普通に起きます。

この問題を解決するには、AIを一発で正解させようとするのではなく、組織のデータ活用の文脈をAIが使えるように整えていくプロセスが必要になります。私たちはこれを「AIが育つデータ活用の好循環」と呼んでいます。本記事では、その各ステップで現実に起きがちな課題と解決策、そしてCodatumがどう解いているかを詳しく解説します。


AIが育つデータ活用の好循環:5つのステップ

ai-blog

Step 1|現場の人たちが触れるデータを広げる

「データ活用をしよう」と言いながら、現場がデータに触れる機会は閲覧専用のダッシュボードのみ、という組織は少なくありません。これでは分析ユースケース自体が生まれません。まずは探索的な分析を現場に開放することが、好循環の出発点になると考えています。

よくある課題

  • 分析環境がそもそも提供されていない

    — 多くの組織では、現場のメンバーが深く・広く分析できる環境が用意されておらず、分析ユースケース自体が生まれてこない

  • データ閲覧権限の問題

    — PII等のセンシティブデータを含む基盤に接続する場合、適切な権限設計と運用が必要になる

  • レビュー体制の不在

    — ダッシュボードや分析クエリはコピーされて増殖する。間違った分析の増殖を止められるレビュー体制がないと、分析環境を開放しづらい

うまくいくパターン

  • 現場がセルフサービスで分析できる環境を用意する

  • レビュー体制を仕組みとして作っておく。間違えそうなときに検出して、別の人が確認できるようにしておく

  • 「絶対に間違えてはいけない分析」はわかる人がやるべき。ここで言っているのはそれ以外の探索的な分析の話

Codatumのアプローチ

ai-blog_1

実行過程が全て残るノートブック形式×SQLで書かれているため、何をどう考えて分析したかをレビュアーが追いやすい。現場のメンバーが分析を間違えても、レビューで気づける体制を作りやすい。


Step 2|AIと一緒にデータ活用を始める

データを開放しただけでは、現場の人たちは実際にはデータを使い始めません。テーブルやカラムを見ても、自分の業務とどう紐づくかが分からないからです。この壁を越えるのがAIの役割です。

よくある課題

  • データ分析リテラシーの壁

    — 現場のメンバーはテーブルやカラムを見ても、自分の業務・課題と紐づけることが難しい。「このデータで何が分析できるのか」「自分の業務のどの部分を数字で語れるようになるのか」がわからない

  • 社内データに関する知識の壁

    — どのテーブルがどう使えるか、どのデータが信頼できるかといった、社内固有のデータの使い方に関する知識が現場にはない

うまくいくパターン

  • AIに「データスチュワード」——つまり、社内のデータの意味や使い方を案内してくれる存在——としての役割を担わせる。現場のメンバーが自分の業務をAIに伝えて、「どんな分析ができるか」「自分の業務のどの部分を数字で語れるようになるか」を壁打ちする

  • 「今あるデータでできる範囲で分析を始める」という進め方を、AIが現場と一緒に行う。データがあるかどうかを調べ、あるデータでできる分析を提案し、実際に分析を進める。曖昧な利用ユースケースを吸収できるAI Agentであることが大事

  • まだ解けない分析ユースケースが溜まること自体が、次のStep 3で整備対象を特定するためのインプットになる

Codatumのアプローチ

CodatumのAI Agentはエージェンティックに振る舞います。テーブルを自分で見つけに行き、中身を調べ、ユーザーのニーズに合わせて柔軟に分析を組み立てることができます。これにより、現場のメンバーが「自分の業務でどんな分析ができるか」をAIに壁打ちするデータスチュワード的な使い方が可能になります。

これは、あらかじめ決められた手順を実行するだけのAIワークフロー型のアプローチとは異なります。ワークフロー型では「ただ分析を実行する」だけになり、ユーザーの業務理解に基づいた分析提案やデータスチュワード的な伴走はできません。エージェンティックな振る舞いによって、対応できる幅が大きく広がります。今回のCodatumリリースはまさにこのAI Agentのリリースであり、この柔軟さが核になっています。

また、AI Agentとのやりとりを通じて「まだ解けていない分析ユースケース」も自然と集まります。ユーザーがAIに分析を依頼した結果、データが足りない・テーブルが整備されていないといったケースが可視化され、これがStep 3の整備対象を特定するインプットになります。Codatumではこの「まだ解けていないユースケース」をAI Agentを通じて収集する仕組みを構築していきます。


Step 3|活用ユースケースを溜めて、整備対象を特定する

AIと一緒に分析を始めるとユースケースが溜まってきますが、同時に間違った分析やデータが足りなくて解けないケースも出てきます。全てを整備するのは現実的ではないので、何を優先的に整備するかの判断が必要になります。

よくある課題

  • トップダウンアプローチの負荷

    — 人間が明示的にレビュー依頼・優先順位を決めるやり方は確実だが、運用負荷が高くスケールしづらい

  • ボトムアップアプローチの困難さ

    — 閲覧数・実行数などから利用ベースで自動集計してランキングしたいが、BIのリソースIDとDWHのクエリログが紐づいていないため「どのダッシュボードからよくテーブルを叩いているか」といった逆引きが難しい

うまくいくパターン

  • 分析ユースケースが楽に溜まり、後から振り返りやすく、まとめやすい体制とツールを事前に構築しておく。探索的な分析は個人のローカル環境に閉じがちで、社内に共有されず、後から「どんな分析ニーズがあるのか」を把握しにくい

  • BI側で「どの分析がよく使われているか」を実績ベースで把握できるようにする(ボトムアップ)

  • 加えて人間が明示的にレビュー・優先順位を指定できる導線も残す(トップダウン)

Codatumのアプローチ

ai-blog_2

Codatumで分析を行うと、それがそのまま活用ユースケースとして記録されます。探索的な分析も社内に共有された状態で残るため、後から「どんな分析ニーズがあるのか」を把握しやすくなっています。アクティブなノートブック・よく見られているノートブックのランキングで、どんな分析ニーズが多いかが実績から分かります。ノートブックの内容はSQLで書かれているため、AIに渡してさらに深く分析傾向を振り返ることもできます。


Step 4|データ・メタデータを整備する

整備対象が決まったら、実際にデータとメタデータを整備します。ただし、全ての組織に専任のデータ基盤チームがいるわけではありません。

よくある課題

  • 専門知識とリソースの問題

    — 正攻法はDWH側でdbt等のデータモデリングツールを使った整備だが、専任の担当者や専門知識が必要であり、全ての組織にそのリソースがあるわけではない

  • チーム分離によるリードタイムの長期化

    — データ基盤チームとBIを触るチームが分かれている場合、整備のリードタイムが長くなりがち

うまくいくパターン

  • dbtなどのデータモデリングツールを扱える人・ナレッジが組織にあるなら、そちらをAIと共に整備する

  • チームが分かれている場合や専任がいない場合は、BI側でまずボトムアップにモデリングを始める。よく使われるSQLを検出して共通化し、メタデータ(説明・使い方)や分析サンプルを作成していく

  • BI側で固まってきたものを、段階的にDWH側に書き戻す形が効率的。BI側での探索的な整備 → DWH側での本格管理、という段階的なアプローチ

Codatumのアプローチ

ai-blog_3

SQLのモデリング・参照機能で、BI側からのボトムアップ整備をサポートしています。一つのSQLを整理しておくと、複数の分析ノートブックからそのSQLを参照できます。よく使われるクエリを共通化し、メタデータや分析サンプルを付与していく運用が可能です。


Step 5|分析精度が上がり、さらに活用が広がる

データとメタデータが整備されると、AIが精度高く分析できるテーブルの対象範囲が広がります。その結果、これまで対応できていなかった分析ユースケースにもAIが対応できるようになります。新たな分析に対応できるようになることで、さらにデータ活用が広がります。

よくある課題

  • 活用の想像力の壁

    — データとメタデータが整備されても、それを使って何ができるか・どんな分析が可能になったかは、分析に精通していないと思いつけないことが多い

  • キャッチアップの仕組みの不在

    — 新しく整備されたテーブルやメタデータを利用者がキャッチアップできる仕組みがないと、整備したのに使われない

うまくいくパターン

  • データとメタデータの整備には、元々対応したかった分析ユースケースがあるはず。それを分析サンプルとしてBI側に作成・共有しておくと、使う側にもAIにも信頼できる参照先になる

  • データスチュワードAIにとっても、分析サンプルがあることで現場への紹介がより具体的になる

  • 分析する側は「どんな分析ができそうか」をユースケースレベルで考えやすくなる

これまで対応できていなかった分析ユースケースにもAIが対応できるようになり、データ活用がさらに広がることで、Step 1へのループが回ります。

Codatumのアプローチ

AI Agentが整備済みのメタデータと分析サンプルを自動活用し、AIが精度高く分析できるテーブルの対象範囲を広げます。また、分析サンプルがあることでデータスチュワードAIとしての紹介が具体的になり、現場のメンバーが新たな分析に取り組みやすくなります。精度が上がった分析結果が新たな活用ユースケースを生み、好循環がさらに加速します。

ai-blog_4

生成AI時代のBIツール選定ガイド

AIの進化によって変わりつつあるデータ分析、今あらためてBIツールを見直すべき理由と選定軸を整理した資料です。

生成AI時代のBIツール選定ガイド

この資料でこんなことが分かります

  • なぜ今、BIツールの見直しが必要なのか
  • 全自動型と協働型、2つのBIの進化パターン
  • 自社に最適なBIツールの選定軸