コンサルティング
Google Cloud
システム開発
データ分析
セキュリティ
生成AI
Google Cloud認定トレーニング
「最近、社内でChatGPTやGeminiを使っている人が増えた気がする。でも、誰が何を入力しているかは把握できていない。」 日々の業務の中で、このような漠然とした不安を感じたことはないでしょうか。このように、会社が把握・管理していない状態のまま、従業員が独自の判断で業務に生成AIを利用している状態を「シャドーAI」と呼びます。そして今、このシャドーAIは企業にとって無視できない課題の一つとして認識されつつあります。 実際、弊社にも「社員が個人アカウントで生成AIを使っているようだが、実態が把握できない」「利用を禁止したが、隠れて使われている気がする」といったご相談が増加傾向にあります。シャドーAIの問題は、一部の企業に限らずさまざまな組織で関心が高まりつつあり、対応を検討する必要のあるリスクの一つとされています。 「うちの会社ではAIの業務利用を許可していないから大丈夫」と考えているとしたら、それは見えないリスクを抱えている状態かもしれません。本記事では、多くの企業から実際に寄せられている"生成AIにまつわる悩み"を紐解きながら、シャドーAI対策の実践的な進め方を解説します。 [toc] 弊社に寄せられる相談から見える、生成AI活用の課題 弊社には日々、生成AI法人導入に関する多数のご相談が寄せられています。ここでは、多くの読者が「あ、これうちの話だ」と感じるであろう、現場のリアルな悩みをご紹介します。 悩み①「社員が個人アカウントのNotebookLMに社内資料を読み込ませている」 比較的多く見られるのがこのケースです。「会議の議事録まとめに便利だから」「大量のPDF資料から目的の記述を探し出せるから」といった理由で、従業員が個人のGoogleアカウントを使ってNotebookLMやAIツールを利用するケースがあります。 この場合、社外秘のドキュメントが会社の管理外となるクラウド環境にアップロードされる可能性があります。個人向けの生成AIサービスでは、入力データややり取りの一部がサービス改善や機械学習の開発に利用される場合があります(設定やサービスによる)。 そのため、企業の管理外で機密情報を取り扱う際には慎重な判断が求められます。一方で、エンタープライズ版ではデータの取り扱いに関する制約が明確に定められており、用途に応じた使い分けが重要です。 悩み②「生成AIを"禁止"にしたら、現場から不満が多く寄せられた」 リスクを考慮し、生成AIの利用を制限または禁止する企業もあります。しかし一律の制限によって、業務効率への影響を懸念する声が現場から上がるケースも見られます。特に、文書作成や情報整理などの業務でAIを活用していた場合、従来の手作業に戻ることで作業時間の増加や負担感につながる可能性があります。 また、会社のPCからのアクセスを制限した場合でも、従業員が個人のスマートフォンや私物PCなどを利用してツールを使うケースも指摘されています。その結果、利用実態の把握が難しくなり、管理が行き届かない状態が生じる可能性があります。そのため、単純な禁止ではなく、ガバナンスと利便性を両立した運用設計が重要になります。 悩み③「法人契約したいが、クレジットカードが使えない」 生成AIを安全に活用するために法人向けプランの導入を検討しても、支払い方法の制約が障壁となるケースがあります。特に大学や大企業、官公庁などでは、社内規定によりクレジットカード決済が制限されている場合があります。 一方で、多くの生成AIサービスはオンラインでの即時契約を前提としており、クレジットカード払いが基本となっているケースも少なくありません。その結果、「請求書払いでなければ契約できない」といった社内手続きとの不整合が生じ、稟議や承認プロセスに時間がかかる要因となることがあります。こうした実務上の制約が、導入検討の停滞につながるケースも見られます。 悩み④「既存ベンダーに相談しても、生成AI領域の知見が十分でなく話が進まない」 既存のITベンダーに生成AIの導入について相談したものの、期待した支援が得られないケースも見られます。生成AIを業務で安全に活用するためには、ツール単体の導入だけでなく、既存システムとの連携やセキュリティ設計を含めた全体的なアーキテクチャ設計が求められます。 例えば、SAML/SSOによる認証統合や、VPC Service Controlsを活用したデータアクセス制御など、クラウドセキュリティに関する専門知識が必要になる場面もあります。そのため、対応可能なスキルや体制が十分でない場合、検討が長期化したり、導入プロジェクトが円滑に進まないといった課題につながることがあります。 シャドーAI対策の正解は"禁止"ではなく"安全な環境の提供" 前述の悩みからも分かる通り、シャドーAI対策として「利用を禁止する」だけでは、必ずしも十分な対策とは言えません。その理由として、いくつかの課題が指摘されています。 業務効率に影響が出る可能性があり、AIを活用する企業との間で生産性の差が生じる懸念がある 個人のデバイスなどを通じてツールが利用されるケースがあり、結果として利用実態の把握が難しくなる可能性がある AIツールの利用制限に対して、現場から負担感や不満の声が上がるケースもある 従業員の「業務を効率化したい」というニーズに対して、単に利用を制限するのではなく、会社として「安全に使える公式ツール」を用意し、適切なルールのもとで提供することが重要です。 その「安全に使える公式ツール」の有力な選択肢が、Google Cloudが提供するエンタープライズ向けの生成AIサービス、Gemini EnterpriseやNotebookLM Enterpriseです。 法人導入で「つまずく」4つのポイントと解決策 いざ法人向けの生成AIを導入しようとしても、実務においては様々なハードルが存在します。ここでは、法人導入において企業が「つまずくポイント」と、それを乗り越えるための具体的な「解決策」をセットで解説します。 ①データは本当に学習されないのか? → Gemini Enterprise / NotebookLM Enterpriseなら安心 【つまずきポイント】 「法人契約したとしても、本当にうちの機密データがAIの学習に使われないのか不安だ」という声は根強くあります。 【解決策】 個人向けの無料版AIと、法人向けのエンタープライズ版(Gemini EnterpriseやNotebookLM Enterprise)の決定的な違いは、データの取り扱いに関する公式なコミットメントにあります。 Gemini Enterpriseの場合: Gemini Enterpriseの公式FAQにおいて、「プロンプト、出力、およびその過程で発生するデータが、Googleのモデルや他のお客様のモデルのトレーニングに使用されることはない」と明記されています。また、データの所有権はあくまでお客様に帰属し、Googleが広告に利用したり第三者に販売したりすることもありません。 NotebookLM Enterprise(Google Workspaceユーザー)の場合: ヘルプページにおいて、Google Workspaceユーザーがアップロードしたデータやクエリは、AIモデルのトレーニングに使用されないことが明記されています。さらに、Workspaceユーザーの場合は、フィードバックを送信した際でも「人間のレビュー担当者による確認」が行われないという、より厳格な保護措置がとられています。 これにより、社外秘の企画書や財務データであっても、情報漏洩や意図しない学習のリスクを抑えながらAIを活用することが可能になります。また、NotebookLM Enterpriseは既存のGoogle Workspace契約がない組織でも単独導入でき、導入したその日から安全な環境で業務を開始できます。 ②誰が何を使っているか可視化したい → SSO / SAML連携でガバナンスを確立 【つまずきポイント】 「社員がそれぞれ勝手にアカウントを作ってしまっては、結局誰がAIを使っているのか管理部門で把握できない」というガバナンスの課題です。 【解決策】 この課題は、SSO(シングルサインオン)やSAML連携といった認証技術で解決します。Microsoft Entra IDやGoogle Workspaceといった既存のID基盤と連携させることで、従業員は社内アカウントでAIにログインする運用に統合できます。 こうした構成を整えることで、管理者はGeminiの利用状況を管理コンソールのレポート(組織でのGemini使用状況確認)から、NotebookLM EnterpriseについてはGoogle Cloudのログ機能(NotebookLM Enterprise監査ログの設定)から、それぞれ「誰が・いつ・どのサービス」を利用しているか正確に把握できます。 さらに、Gemini Enterprise等のライセンスを活用すれば、Google Vault(電子情報開示ツール)を通じてユーザーのやり取り内容を保持・検索・エクスポート可能です(Vaultを使用してGeminiアプリを検索する)。日常的にすべてを監視するのではなく、「有事の際に、いつ・誰が・どのような入出力を行ったかを遡って調査できる体制」を構築できる点が、企業にとっての大きなメリットです。 また、退職時には社内IDを無効化するだけで即座にアクセス権を剥奪できるため、個人アカウント利用時に懸念される「退職後の情報持ち出し」リスク低減につながります。 ③機密データの外部流出を確実に防ぎたい → VPC Service Controlsによるデータ境界 【つまずきポイント】 金融機関や医療機関、あるいは厳格な情報管理が求められる大企業では、「社内ネットワークの外からは絶対にアクセスさせたくない」「データが外部ストレージにコピーされるのを防ぎたい」という強固なネットワーク要件が求められます。 【解決策】 ここで活躍するのがGoogle Cloudの「VPC Service Controls」という高度なセキュリティ機能です。これは例えるなら、クラウド上に「目に見えないデジタルの無菌室(データ境界)」を作るような仕組みです。この見えない壁の中(会社が許可したネットワークや特定の端末)からしかAIサービスにアクセスできなくし、かつ、AIが処理したデータへのアクセスを、許可されたネットワークやリソースの範囲内に制限することで、意図しないデータ持ち出しや外部アクセスのリスクを低減することができます。 ④クレジットカード決済ができない → リセラー経由の請求書払い 【つまずきポイント】 「悩み③」でも挙げた通り、大学や大企業ではクレジットカード決済ができず、システムは完璧でも「支払い」で導入が頓挫するケースです。 【解決策】 この実務上の壁は、Google Cloud の公式パートナー(リセラー)を経由して契約することで解決します。クラウドエースのようなパートナーを通すことで、日本の商習慣に合わせた「請求書払い(銀行振込)」での契約が可能になります。それだけでなく、複数部門でバラバラに行われていた契約や請求を一つに一本化したり、自社の利用状況に合わせた最適なライセンス体系の提案を受けたりと、管理の手間とコストを大幅に最適化することができます。 ここまで読んで「うちの状況に近い」「自社でもシャドーAIが起きているかもしれない」と感じた方は、まずは現状の整理からお手伝いします。お気軽にご相談ください。クラウドエースへのお問い合わせはこちらから 「守り」の先にある「攻め」のAI活用 ここまでのシャドーAI対策は、企業における「守り」の施策です。しかし、安全な基盤が整って初めて、企業は社内のあらゆるデータを価値に変える「攻め」のAIデータ活用へと踏み出すことができます。 RAG(検索拡張生成)による社内ナレッジのフル活用 業務で本当に必要なのは、「一般的な正解」ではなく「自社独自のナレッジ」です。安全な環境が確保できたら、次はRAG(Retrieval-Augmented Generation:検索拡張生成)という技術の出番です。 Google CloudのVertex AIを活用して高度なRAG環境を構築すれば、Googleドライブ内に眠っている過去の提案資料、ベテラン社員の施工ノウハウ、テキスト化・構造化された設計資料や図面データ、さらには名刺情報やメールの履歴までを横断的に検索し、AIが的確に要約して答えてくれる「超優秀な社内アシスタント」を作ることができます。 エンタープライズサーチがもたらす変革 「あの資料、どこにあったっけ…」とファイルサーバーを探し回る時間は、企業にとって大きな損失です。セキュアなAI基盤の上で「エンタープライズサーチ(企業内検索)」を実現すれば、従業員はチャット画面から質問するだけで、必要な社内データに瞬時にアクセスできるようになります。安全な基盤があるからこそ、データ活用という次のステージに安心して進むことができるのです。 より深く知りたい方への関連記事 Google Cloud で実現する AI 駆動型ワークスタイル!NotebookLM Enterprise でセキュリティとガバナンスも強化! エンタープライズサーチとは?企業内検索で業務効率を最大化する導入効果 ゼロトラストはブラウザから!「Chrome Enterprise Premium」で実現する、新しい働き方のセキュリティ まとめ:正しく使える環境の整備から始めよう 本記事の重要なポイントを3つにまとめます。 社員の悩みとシャドーAIリスク: 「便利だから」「クレジットカードがないから」といった理由で管理外のAI利用が広がり、情報漏洩やコンプライアンス違反につながるリスクがあります。 「禁止」ではなく「公式環境」を: AI利用を禁じるだけでは生産性の低下や問題の地下潜伏を招きます。シャドーAI対策の正解は、データが学習されない安全な公式ツールを用意することです。 法人導入の実務課題を乗り越える: Gemini EnterpriseやNotebookLM Enterpriseの導入、SAML連携、VPC Service Controlsによる防御、そしてリセラー経由での請求書払いを組み合わせることで、強固なガバナンスと利便性を両立できます。 シャドーAI対策は、単純に「禁止」のルールを作ることではなく、従業員が「正しく・安全に使える環境の整備」から始まります。放置すればするほどリスクは膨らんでいきますので、まずは自社の環境見直しからスタートしてみてはいかがでしょうか。 クラウドエースは、Google CloudのDiamondパートナー(ServiceおよびCo-sell部門)として、セキュアな生成AI基盤の構築から「攻め」のデータ活用まで一気通貫でご支援しています。ガバナンスの確立と業務効率化の両立にお悩みなら、まずはお気軽にご相談ください。クラウドエースへのお問い合わせはこちらから
2026.04.30
※この記事は迅速な情報提供を重視し、速報として掲載しております。もし記事内に誤りがございましたら、後日訂正いたします。 [toc] はじめに 現在ラスベガスで開催されている Google Cloud の旗艦イベント「Google Cloud NEXT'26(以下、Next'26)」に現地参加中の茜、井上です。Google Cloud NEXT'26 の最新情報を現地からお届けします! 本稿では、 2026 年 4 月 23 日(木)10:30–11:45(PT)の Developer Keynote(ホスト: Brad Calder 氏、Richard Seroter 氏ほか)の内容を速報で紹介します。 今回の基調講演のテーマ Developer Keynote では、Gemini Enterprise Agent Platformを活用し、単なるチャットボットを超えた、自律的に動作する「プロダクション・レディ」なエージェントの構築手法が7つのデモを通じて紹介されました。 Google Cloud Next '26 キーノート概要 これまでのAIは、質問に答える存在でした。しかし今回のGoogle Cloud Nextで示されたのは、まったく異なる未来です。 AIが自分で考え、判断し、行動する。 そんな「エージェント」と呼ばれる存在が、すでに現実のものになりつつあります。 キーノートの冒頭では、印象的な事例が紹介されました。 医療現場でAIが意思決定を支援し、ICUの死亡率を47%削減 個人に合わせて学習内容を変える教育アプリ 現実世界を再現して学習する自動運転AI これらはすべて、「単なるAI」ではなく 実際に意思決定に関わるエージェント型のシステムです。 デモで描かれた未来:AIが都市イベントを設計する 今回のキーノートは、1つのストーリーを軸に進みました。 それが、 ラスベガスで開催される1万人規模のマラソン大会を、AIが設計・運営する というシナリオです。 一見するとエンタメのようですが、実際には非常にリアルな問題です。 交通規制はどうするか 医療体制は十分か 地域への影響はないか 安全性は確保されているか こうした複雑な課題を、AIがどのように解決するのかがデモされました。 3つのエージェントがチームとして働く このシステムの中心には、3つのエージェントが存在します。 ■ Planner(プランナー)マラソンのルートを設計する役割です。地図やランドマーク、交通状況などを考慮しながら、最適なコースを提案します。 ■ Evaluator(評価者)そのルートが適切かどうかを評価します。 例えば: 距離は正しいか 安全性に問題はないか 地域への影響はどうか といった観点から、スコアリングを行います。 ■ Simulator(シミュレーター)実際にそのルートでマラソンを開催した場合を再現します。 ランナーの動き 交通への影響 混雑状況 などを仮想空間で再現し、現実に近い形で検証します。 この3つが連携することで、 「考える → 評価する → 試す」 というプロセスが自動化されます。 デモの自律性を支える、エージェント構築の主要コンポーネント ここからが今回のキーノートの本題です。 Googleは、こうしたエージェントを実現するための仕組みをいくつかの重要な技術として提示しました。 1. Agent Development Kit (ADK) と MCP による基礎構築 使用技術: Agent Development Kit (ADK), Model Context Protocol (MCP) エージェントに特定の「スキル」や「ツール」を付与し、現実に即したタスクを実行させることができます。 このデモでは、MCPサーバーを通じてGoogle MapsのAPIと連携させることで、エージェントが現実の地図データやランドマーク情報を直接取得し、最適なマラソンルートを自動で計画できるようになりました。 複雑なAPI連携をGoogle Cloudが安全に管理してくれるため、開発者はエージェントの構築に専念できます 紹介された機能の解説 Agent Development Kit (ADK): モジュール型エージェントを構築するためのフレームワーク 。 Model Context Protocol (MCP): エージェントが外部ツールやデータと通信するための標準プロトコル 。 Skills: YAMLメタデータとMarkdownで定義され、エージェントに専門知識(地図、GIS、レース運営等)を付与するコンポーネント 。 Google Cloud MCP Servers: Google Cloudの全サービスがMCPに対応し、地図データ等への安全なアクセスを提供 。 2. A2AプロトコルとA2UIによるエージェント間の協調 1つのエージェントだけでなく、複数のエージェントをチームとして連携させます。 使用技術: Agent-to-Agent (A2A) プロトコル, Agent Registry, A2UI (Agent User Interface) デモでは、「ルートを計画するエージェント」「ルートを評価するエージェント」「実際にシミュレーションを動かすエージェント」が、脆弱なAPIコードを書くことなく自動的に連携していました。 さらに驚くべきはA2UIの導入です。エージェント自身が、評価結果や地図を表示するための最適なユーザーインターフェース(UI)を動的に生成し、人間に分かりやすく提示することが可能になりました。 紹介された機能の解説 A2UI (Agent-to-User Interface): エージェントがユーザーの意図を汲み取り、最適な UI(ルートマップやスコアボード等)を動的に生成・表示するオープンスタンダード。もはやダッシュボードを事前に作り込む必要はありません。 A2A (Agent-to-Agent) プロトコル: エージェント同士が API を介さず対話するための通信規格。 Agent Registry: いわば 「エージェント界の DNS」 です。中央ディレクトリが各エージェントのアイデンティティとスキルセットを解決し、未知のエージェント同士が自律的に発見・協力することを可能にします。 3. メモリ管理と高度なデータ連携 (RAG) AI との対話における「ステートレス(忘却)」の壁を、Google は Context Engineering で突破しました。 使用技術: Memory Bank, AlloyDB, Apache SparkによるRAG(検索拡張生成) デモでは、エージェントが地域の規制を検索した際、「Nevada Revised Statutes - Historical Act of 1875(1875年制定のネバダ州改正法)」 を発見し、「公道でラクダを走らせることは禁止されている」というニッチな規則に基づいて即座にルートを修正。会場に驚きを与えました。 この高度なRAGを実現する裏側として、データエンジニアリングエージェントが自然言語のプロンプトからデータパイプラインを生成する様子もデモされました。 「Lightning Engine for Apache Spark」の高速な処理能力と「Document AI」を組み合わせることで、PDFなどのドキュメントを読み込み、意味的なまとまりごとに分割(セマンティックチャンキング)してAlloyDBに保存するプロセスが自動化されています。 紹介された機能の解説 Memory Bank: エージェントに長期記憶を付与。過去のシミュレーション結果やユーザーの嗜好を保持し、一貫性のある対話を実現します。 AlloyDB の Auto Embeddings: AlloyDB と Spark を活用した RAG(検索拡張生成)において、開発者が手動でベクトル化する手間を排除。データベース側で自動的に埋め込みベクトルを生成し、高度な専門知識(グラウンディング)をエージェントに提供します。 4. エージェントの可観測性 (Observability) と自動デバッグ AIの思考プロセスが複雑化する中、エラーの特定と修正もAIがサポートします。 使用技術: Agent Observability, Gemini Cloud Assist, MCP対応の統合開発環境(IDE) 膨大なログの中から、トークン数超過によるクラッシュの原因を素早く特定できます。さらに素晴らしいのは、Gemini Cloud Assistがエラーの原因を説明するだけでなく、コードの修正案(イベントコンパクションの頻度調整など)を提案し、IDE上で直接適用から再デプロイまでを自然言語のやり取りだけで完結できる点です。 デモでは、シミュレーターが膨大なツール呼び出しにより Gemini API の制限を超えてクラッシュした際、Gemini Cloud Assist がログを分析。原因がトークン制限超過であることを特定しました。Cloud Assist は単なるエラー報告に留まらず、ADK の機能である「イベント・コンパクション(文脈の要約圧縮)」の閾値を調整する修正案を提示。開発者は自然言語でこれを承認するだけで、パッチを適用できました。 紹介された機能の解説 Agent Observability: 推論フローやツール呼び出し、オペレーショナルメトリクスを可視化する指標群 。 Gemini Cloud Assist Investigations: ログやインフラの状態を自律的に調査し、根本原因を特定するAIアシスタント 。 Event Compaction: トークン制限を超えないよう、文脈を動的に要約・圧縮するADKの最適化機能 。 5. インフラの自動変換と Gemma 4 によるカスタマイズ コードの修正だけでなく、インフラ環境の変更もAIとの対話で実現します。 使用技術: Gemini Cloud Assist, Google Kubernetes Engine (GKE), Gemma 4モデル デモでは、「Cloud Runで動いているアプリをGKEに移行し、同じクラスターにGemma 4をデプロイして」とプロンプトで指示するだけで、AIが複雑なインフラストラクチャの変更を自動で構成・デプロイしました。これにより、急激なスケールアップやカスタマイズモデルの導入といったインフラ作業のハードルが劇的に下がります。 紹介された機能の解説 Vibe Clouding: 意図(インテント)を伝えるだけで、既存のインフラ構成(IaC)を自動変換し、デプロイまで完結させる手法 。 GKE (Google Kubernetes Engine): AIワークロードの提供とスケーリングに最適化されたマネージド基盤 。 Gemma 4 on vLLM: クラスター内でセルフホストされる最新のオープンモデル 。 6. ノーコードとハイコードの融合 エンジニア以外のメンバーも、簡単にエージェントを作成してプロジェクトに参加できます。 使用技術: Gemini Enterprise (Agent Designer) コーディングの知識がなくても、日常的に使っている業務マニュアルや備品リスト(Googleドキュメントなど)をAIに読み込ませるだけで、特定の業務に特化したエージェントを数分で作成できます。 デモでは、飲料水や仮設トイレの手配を行う物流エージェントを作成し、プロの開発者が作ったプランナーエージェントとシームレスに連携させることに成功しました。 また、Gemini Enterpriseでは独自にエージェントを作成するだけでなく、Googleが提供する事前構築済みのエージェントを活用して、データソースからインサイトを引き出すことも可能です。 基調講演の中では、データインサイトエージェントの個人的なお気に入りとして「NotebookLM」が挙げられ、開発者やチームが自身のデータから新たな価値を容易に見出せる環境が整っていることが強調されました 。 紹介された機能の解説 Gemini Enterprise Agent Designer: 自然言語のプロンプトとドキュメントだけでエージェントを生成するインターフェース 。 Shared Context: ノーコードで作られたエージェントと、開発者が書いたエージェントが共通のレジストリで文脈を共有する機能 。 Automatic Registration: 生成された全エージェントがレジストリに自動登録され、他のアプリからも発見可能になります 。 7. ゼロトラスト・ガバナンスと Wiz による防衛 強力な自律型エージェントには、厳格な制御とセキュリティ監視が不可欠です。 使用技術: Agent Identity, Agent Gateway, Wiz (AIセキュリティプラットフォーム) エージェントごとに個別のID(Agent Identity)を割り当て、アクセス権限を厳格に管理できます。 デモでは、「ルート計画エージェントには財務データベースの書き込み権限を与えない」といったゼロトラストな制御を行う様子が紹介されました。 また、WizのAIエージェントと連携することで、コード内の脆弱性や過剰なアクセス権限を自動でスキャンし、開発者のツール上で直接修正案を提示して防ぐことができます。 紹介された機能の解説 Agent Identity: エージェントごとに発行される、偽装不可能な固有の資格情報 。 Agent Gateway: 通信を仲介し、読み取り専用ポリシーなどのIAM制限を厳格に強制するプロキシ 。 Wiz (Red & Green Agents): 攻撃者視点で脆弱性を探るRedエージェントと、修正コードを提案するGreenエージェント 。 まとめ 「Las Vegas Neon Night Run 2027」という壮大なデモが示したのは、エージェントがもはや単なる「チャットの相手」ではなく、実世界の課題を解決する「パートナー」になったということです 。 今回紹介された全てのコードはGitHubでオープンソースとして公開されています 。さあ、あなたも今日から、自律型クラウドの時代を築くエージェントの構築を始めてみませんか? 【参考リンク】 関連する公式情報はこちらです。併せてご確認ください。 Developer Keynote: https://www.youtube.com/watch?v=A01DQ8_xy7Q Gemini Enterprise Agent Platform 紹介: https://cloud.google.com/blog/products/ai-machine-learning/introducing-gemini-enterprise-agent-platform Google Cloud と Wiz による AI 時代のセキュリティ: https://cloud.google.com/blog/products/identity-security/next26-redefining-security-for-the-ai-era-with-google-cloud-and-wiz ADK 概要: https://cloud.google.com/agent-builder/agent-development-kit/overview Agent Platform エージェントの概要: https://docs.cloud.google.com/gemini-enterprise-agent-platform/agents/overview Agent Platform リリースノート: https://docs.cloud.google.com/gemini-enterprise-agent-platform/release-notes Gemini Cloud Assist: https://docs.cloud.google.com/gemini/docs/cloud-assist/overview GKE 新機能: https://cloud.google.com/blog/products/containers-kubernetes/whats-new-in-gke-at-next26 Gemma 4: https://cloud.google.com/blog/products/ai-machine-learning/gemma-4-available-on-google-cloud AlloyDB AI 自動ベクトル: https://cloud.google.com/blog/products/databases/alloydb-ai-auto-vector-embeddings-and-auto-vector-index Day 1 リキャップ: https://cloud.google.com/blog/topics/google-cloud-next/next26-day-1-recap デバッグ Codelab: https://goo.gle/debugagents Next'26: https://www.googlecloudevents.com/next-vegas Google Cloud Next Tokyo '26開催決定!参加登録受付中 Google Cloud 最大級の旗艦イベントが、2026年も開催されます。最新の「Agentic AI」や Gemini の社会実装をテーマに、革新的なセッションや展示が集結する2日間です。ぜひご参加ください。 日時:2026年7月30日(木)・31日(金)会場:東京ビッグサイト 南展示棟・会議棟参加費:無料(事前登録制) ご登録時にこちらの招待コードをご利用ください NxT26_pt025 公式サイトで登録する
2026.04.24
BigQueryにデータはあるのに、SQLを書けるメンバーが限られていて分析のボトルネックになっている。そんな課題を解消するのが、MCP(Model Context Protocol)を使ったBigQuery連携です。 MCPサーバーを介することで、ClaudeやGemini CLIなどのMCP対応ツールから自然言語でBigQueryを操作できるようになります。 本記事では、構築方式の比較からセットアップ手順、実務での活用事例までをまとめました。 [toc] BigQueryをMCPで操作する仕組み BigQueryに蓄積されたデータを、SQLを書かずに自然言語で分析できる仕組みがBigQuery MCPサーバーです。ここではその土台となるMCPの基本概念と、BigQuery MCPサーバーが実際にどのように動作するかを解説します。 MCP(Model Context Protocol)の基本概念 MCP(Model Context Protocol)は、Anthropic社が提唱した、LLMやAIエージェントが外部のツールやデータベースと対話するための共通規格(プロトコル)です。よく「AIにとってのUSB-C」と例えられます。USB-Cがどんな機器でも同じ端子でつながるように、MCPに対応したクライアント(ClaudeやGemini CLIなど)であれば、同じ手順で様々なデータソースに接続可能です。 なお、MCPの仕組みや導入メリットは以下の記事にて詳しく解説しています。ご興味のある方はぜひご一読ください。 ▼合わせて読みたい MCPとは?AIの「連携コスト」を削減する新標準。仕組みやメリットを解説 BigQuery MCPサーバーの役割と仕組み BigQueryは、Google Cloudが提供するフルマネージド型クラウドデータウェアハウスです。BigQuery MCPサーバーは、MCPの仕組みを使ってLLMとこのBigQueryをつなぐ中間レイヤーとして機能します。処理の流れは以下の通りです。 ユーザーがMCPクライアント上で自然言語で質問する(例:「先月の売上トップ10の商品は?」) LLMがMCPサーバーを通じてBigQueryのスキーマ情報を取得する LLMがスキーマをもとにSQLを生成し、MCPサーバー経由でBigQueryに実行する 実行結果がMCPサーバーを通じてLLMに返り、ユーザーに自然言語で回答される ユーザーはSQLを書く必要がなく、AIが裏側でスキーマの確認からクエリ実行までを一貫して処理します。なお「BigQuery MCP」は正式なサービス名ではなく、BigQueryとMCPの連携を指す通称として広く使われている表現です。 BigQuery MCPサーバーの構築方式4選を比較 BigQueryをMCPで操作するためのサーバーには、大きく4つの構築方式があります。それぞれ管理負荷やカスタマイズ性が異なるため、チームの技術力や要件に合った方式を選ぶことが重要です。 Google Managed MCP Toolbox コミュニティOSS ノーコード型 提供元 Google Cloud公式 Google(OSS) サードパーティ Skyvia等 実行環境 Google Cloudインフラ ローカル / 自社サーバー ローカル / 自社サーバー クラウド(SaaS) セットアップ難易度 低 中 中〜高 低 カスタマイズ性 低 高 高 低 向いている用途 まず試したい / 公式サポート重視 複数DBを統合管理したい 特定要件に合わせたい 非エンジニアが主体 Google Managed(リモートMCPサーバー) Google Cloudが管理するインフラ上で動作するフルマネージド型のMCPサーバーです。正式名称は「BigQuery remote MCP server」で、エンドポイント(https://bigquery.googleapis.com/mcp)をMCPクライアントに指定するだけで利用を開始できます。サーバーの構築・運用が不要なため、最も手軽に導入できる方式です。 Google Cloud のIAMによるアクセス制御やModel Armorによるプロンプトインジェクション対策など、セキュリティ機能が標準で組み込まれている点もメリットです。一方で、提供されるツール(execute_sqlやlist_dataset_idsなど)は固定されており、独自のツールを追加したり、挙動を細かくカスタマイズしたりすることはできません。 まず手軽にBigQuery × MCPを試したい場合や、Google Cloudの公式サポートを重視する場合に適した選択肢です。 参考:BigQuery リモート MCP サーバーを使用する|Google Cloud公式ドキュメント MCP Toolbox for Databases Googleがオープンソースで提供するローカル型のMCPサーバーです。tools.yamlという設定ファイルでツールの定義やアクセス制御を柔軟に構成できます。BigQuery以外のデータベース(Cloud SQL、AlloyDBなど)にも対応しているため、複数のデータソースをMCPで統合管理したい場合に適しています。 参考:GitHub - googleapis/mcp-toolbox: MCP Toolbox for Databases コミュニティOSS GitHub上で公開されているサードパーティ製のMCPサーバーです。代表的なものにmcp-server-bigqueryや@ergut/mcp-bigquery-serverがあります。 Google公式のサーバーにはない機能(例:フィールドレベルのアクセス制限や、クエリ対象テーブルのホワイトリスト制御など)を持つものもあり、特定の要件に合わせて選択・改修できる自由度があります。反面、メンテナンスや品質は各プロジェクトのコミュニティに依存するため、長期運用には継続性の見極めが必要です。 Google公式の方式では要件を満たせない場合や、自社で独自のMCPサーバーを開発する際のリファレンスとして活用するケースが多いです。 参考:mcp-server-bigquery|GitHub ノーコード型 Skyviaなどのクラウドサービスが提供するGUIベースのMCPサーバーです。コードや設定ファイルを書かずに、画面操作だけでBigQueryとMCPクライアントを接続できます。 エンジニアのサポートなしで導入できる手軽さが最大のメリットです。ただし、カスタマイズの自由度は低く、利用できるMCPツールや接続設定がサービス側の仕様に依存します。また、外部SaaSを経由するため、データの経路やセキュリティポリシーとの整合性を事前に確認する必要があります。 技術リソースが限られたチームで、まずMCPによるデータ活用を小さく始めたい場合に向いています。 参考:MCP Server for Google BigQuery|Skyvia Blog BigQuery MCPのセットアップ手順 構築方式ごとに手順は異なりますが、ここではGoogle Cloudが提供するGoogle Managed版(BigQuery remote MCP server)を例に、セットアップの流れを解説します。 前提条件と必要なIAMロール Google Managed版を利用するには、以下の前提条件を満たす必要があります。 BigQuery APIが有効化されたGoogle Cloudプロジェクト 対象プロジェクトへの適切なIAMロールの付与 必要なIAMロールは以下の3つです。 IAMロール 用途 Service Usage管理者(roles/serviceusage.serviceUsageAdmin) プロジェクトでAPIとMCPサーバーを有効にする MCP Tool User(roles/mcp.toolUser) MCP ツール呼び出しを行う BigQuery Job User(roles/bigquery.jobUser) BigQuery ジョブを実行する BigQuery Data Viewer(roles/bigquery.dataViewer) BigQuery データのクエリを実行する 参考:必要なロール|Google Cloud公式ドキュメント セキュリティの観点から、必要最小限のロールのみを付与することが推奨されています。 Google Managed版の設定方法 まず、gcloudコマンドでBigQuery MCPサーバーを有効化します。 gcloud beta services mcp enable bigquery.googleapis.com --project=YOUR_PROJECT_ID 有効化が完了したら、MCPクライアント側に以下の接続情報を設定します。 項目 値 サーバー名 BigQuery MCP server エンドポイント https://bigquery.googleapis.com/mcp トランスポート HTTP 認証 Google Cloud認証情報(OAuth / サービスアカウント / ADC) 参考:MCPサーバーを有効または無効にする|Google Cloud公式ドキュメント MCPクライアント別の接続設定 上記の接続情報を各MCPクライアントに設定します。以下に主要なクライアントの設定例を示します。 Gemini CLI(.gemini/settings.json) Gemini CLIでは、~/.gemini/settings.jsonにMCPサーバーの設定を記述します。BigQuery MCPサーバーはStreamable HTTPトランスポートを使用するため、httpUrlキーでエンドポイントを指定します。 { "mcpServers": { "bigquery": { "httpUrl": "https://bigquery.googleapis.com/mcp", "authProviderType": "google_credentials", "oauth": { "scopes": ["https://www.googleapis.com/auth/bigquery"] }, "timeout": 30000, "headers": { "x-goog-user-project": "YOUR_PROJECT_ID" } } } } YOUR_PROJECT_IDは自身のGoogle CloudプロジェクトIDに置き換えてください。事前にGoogle Cloud CLIでgcloud auth application-default loginを実行してADCを設定しておく必要があります。 Claude(Settings > Connectors) Claude(claude.ai)では、リモートMCPサーバーへの接続はJSON設定ファイルではなく、Webインターフェースの「Settings > Connectors」からカスタムコネクタとして追加します。 項目 値 サーバー名 BigQuery MCP server リモートMCPサーバーURL https://bigquery.googleapis.com/mcp OAuth クライアントID 事前に作成したGoogle Cloud OAuthクライアントのID OAuth クライアントシークレット 同クライアントのシークレット この機能はClaude Free / Pro / Max / Team / Enterpriseプランで利用可能ですが、Freeプランでは接続できるカスタムコネクタ数に制限があります。 参考:Get started with custom connectors using remote MCP | Claude Help Center BigQuery MCPサーバーの制限事項 Google Managed版のBigQuery MCPサーバーには、以下の制限があります。導入時に把握しておくことで、想定外の挙動を避けられます。 execute_sqlはGoogle Driveの外部テーブルへのクエリに対応していない クエリの処理時間はデフォルトで3分に制限されており、超過すると自動キャンセルされる クエリ結果は最大3,000行に制限される 接続確認の方法 設定後、MCPクライアント上で「接続しているBigQueryのプロジェクトは?」のように質問してみてください。 プロジェクトIDやデータセットの情報が返ってくれば、接続は正常に完了しています。応答がない場合やエラーが返る場合は、IAMロールの付与状況やADCの設定を確認してください。 利用可能なMCPツール一覧 BigQuery MCPサーバーでは、LLMが自動的に呼び出すツール群が提供されています。ユーザーが直接ツールを選択する必要はありませんが、どのようなツールがあるかを把握しておくと、できることの範囲や制約を理解しやすくなります。 データ探索系ツール BigQuery内のデータ構造を把握するためのツール群です。LLMはクエリを実行する前に、これらのツールを使ってデータセットやテーブルの情報を収集します。 ツール名 機能 list_dataset_ids プロジェクト内のデータセットID一覧を取得する list_table_ids 指定したデータセット内のテーブルID一覧を取得する get_dataset_info データセットの説明やラベルなどのメタ情報を取得する get_table_info テーブルのスキーマ情報(カラム名・型・説明など)を取得する ユーザーが「売上データを見せて」と指示した場合、LLMはこれらのツールでデータセットの一覧取得 → テーブルの特定 → スキーマ確認というステップを自動で踏み、その上でクエリを組み立てます。 クエリ実行ツール データ探索で得たスキーマ情報をもとに、LLMが生成したSQLをBigQueryへ発行するのが「execute_sql」ツールです。自然言語の指示からSQL生成・実行・結果の返却までが一連の流れとして自動で処理されます。 なお、実行されるクエリはBigQueryの通常の課金対象です。意図しないコストへの対策は後述の「セキュリティと料金の注意点」で解説します。 BigQuery MCPの活用事例 BigQuery MCPは、技術的なデータ基盤としてだけでなく、日常業務のデータ活用を変える手段として導入が進んでいます。 ここでは代表的な3つの活用パターンを紹介します。SQLの専門知識がなくても実践できるものから、AIエージェントとの連携まで、活用の幅広さを把握しておくと導入後のイメージが掴みやすくなります。 リアルタイムKPI取得 ミーティング中に「今月の決済方法別の注文数は?」といった質問が出た場面で、MCPクライアント上からその場で回答を得るという使い方です。従来であれば「持ち帰って調べます」となっていた確認作業が、自然言語で質問するだけで即座に完了します。 わざわざクエリを書くほどでもないスポットの集計値を取りたいケースに特に有効です。会議中のちょっとした数値確認から、Slackで聞かれた質問への即時回答まで、データへのアクセス速度が大きく改善します。 非エンジニアによる自然言語分析 SQLの知識がないビジネス職のメンバーが、自然言語でBigQueryのデータを直接分析できるようになります。たとえば「過去1年間の顧客LTVを月別に集計して」といった指示で、複数テーブルのJOINを含むクエリも自動で生成・実行されます。 これまでデータ分析はエンジニアやアナリストへの依頼が前提でしたが、MCPを介することで依頼待ちの時間が解消されます。データ分析の属人化を防ぎ、チーム全体でデータドリブンな意思決定を進める基盤として機能します。 AIエージェント(ADK)連携 Google CloudのAgent Development Kit(ADK)とBigQuery MCPサーバーを組み合わせることで、データ取得から分析・アクション提案までを自律的に行うAIエージェントを構築できます。たとえば、BigQueryの売上データと外部の地理空間データを組み合わせて、店舗ごとのパフォーマンスを分析するようなユースケースが想定されます。 単発の質問応答にとどまらず、複数のデータソースを横断した分析や定型レポートの自動生成など、より高度なデータ活用への発展が見込めます。 セキュリティと料金の注意点 BigQuery MCPは自然言語でデータにアクセスできる利便性がある一方で、アクセス制御やコスト管理を適切に設計しないとリスクにつながります。Google Cloudでは組織ポリシー(gcp.managed.allowedMCPService)を使って、組織内で利用可能なMCPサーバーを制限する仕組みも提供されています。導入前に押さえておくべきポイントをセキュリティと料金の両面から整理します。 IAM最小権限とガードレール設計 BigQuery MCPサーバーを利用するユーザーには、前述のIAMロール(mcp.toolUser / bigquery.jobUser / bigquery.dataViewer)を付与しますが、原則としてデータの読み取り権限のみに限定することが推奨されます。 なお、Google Managed版のexecute_sqlツールはSELECTステートメントのみに制限されており、INSERT・UPDATE・DELETEなどのデータ変更操作は実行できない仕様です。ただし、不要な権限を付与しないことはセキュリティの基本原則であり、IAMロールは必要最小限にとどめるべきです。 また、MCPツールにはmcp.tool.isReadOnly属性が設定されており、組織のポリシーを使って読み取り専用ツールのみを許可する運用も可能です。Google Cloud公式も、AIアプリケーションの機能に必要なサービスに対してのみMCPサーバーを有効にすることをベストプラクティスとしています。Google Managed版ではModel Armorによるプロンプトインジェクション対策も利用できるため、機密性の高いデータを扱う場合は併せて検討してください。 料金体系と意図しない課金の防止策 MCP経由で実行されるクエリは、BigQueryの通常の料金体系がそのまま適用されます。オンデマンド料金の場合、スキャンしたデータ量に応じて課金されるため、LLMが大量のデータをフルスキャンするクエリを生成すると想定外のコストが発生する可能性があります。 対策としては、BigQuery側でカスタムコスト管理を設定してクエリあたりのスキャン量に上限を設けることや、MCP Toolboxを使って公開するテーブルやクエリの種類を制限する方法が有効です。また、MCP経由で実行されたクエリにはラベルが自動付与されるため、このラベルを活用してMCP経由のクエリコストを可視化・監査することも可能です。特に検証段階では、本番環境のデータセットではなくサンプルデータでの検証を推奨します。 まとめ:自社に合った方式でBigQuery MCPを始めよう 本記事では、BigQueryをMCPで操作する仕組みから、4つの構築方式の比較、Google Managed版のセットアップ手順、活用事例、セキュリティと料金の注意点までを解説しました。 BigQuery MCPを導入することで、SQLの専門知識がなくてもBigQueryのデータに自然言語でアクセスできるようになります。まずはGoogle Managed版で小さく検証を始め、要件に応じてMCP ToolboxやOSSへの移行を検討するのが現実的な進め方です。 MCPサーバーの構築や自社の業務要件に合わせた設計を検討されている方は、クラウドエースのMCPサーバー開発支援もご活用ください。 クラウドエースの『MCP開発』×『データ分析』でビジネスを次のステージへアプリケーション開発とデータ活用の両面から、Google Cloudのエキスパートが貴社のDXをトータルサポート。MCPサーバー開発支援について詳しく見るデータ分析基盤構築支援について詳しく見る両方のサービスについてまとめて相談する 小林 由暁 ソリューションアーキテクト。Google Cloud全認定資格を武器に、IaC基盤構築や大規模クラウドリフト案件を牽引。Vertex AI等を用いた生成AI導入やBigQueryによるデータ基盤構築に従事している。
2026.04.23
2026.04.20
2026.04.02
2026.03.27
2026.03.23
2026.03.12
2026.02.27
2026.02.26
2026.02.18