【第 6 回】 Generative AI Leader 資格集中講座|プロンプト改善・モデル出力最適化テクニック

こんにちは! クラウドエースのエモーショナル エバンジェリスト、ラリオスです。
「Generative AI Leader 資格集中講座」シリーズ、前回は Google Cloud が提供する多様な AI 関連 API について詳しく見てきましたね。

▼ 第 5 回目はこちら
【第 5 回】Generative AI Leader 資格集中講座 Google Cloud AI API を徹底解説

このシリーズでは、Google Cloud 公式のスタディガイドを使って解説していきます。スタディガイドは以下のリンクからご登録いただければダウンロードできます。スタディガイドを参照しながら読み進めていただくと、より効果的に学習できます。

スタディガイドはこちらからダウンロードできます。

なお、解説中の「★ここ重要!」は試験対策として特に押さえておくべきポイント、「★Tips」は知っておくと理解が深まる補足情報や関連情報として読み進めてください。ある程度知識があって、すぐに試験を受ける方は「★ここ重要!」を読んで、「実践演習クイズ」を解くだけでも高い効果があるはずです。

第 6 回目の今回は、スタディガイドの p. 8 に進み、「AI モデルの出力を改善するためのテクニック(Techniques to improve generative AI model output)」について解説していきます。

生成 AI は非常に強力ですが、つねに完璧な答えを出してくれるわけではありません。期待通りの、あるいは期待以上の結果を得るためには、私たち人間が AI との「対話の仕方」を工夫したり、AI がよりよい判断を下せるように「情報」を与えたりする必要があります。 今回は、まさにそのための具体的なテクニックを学びます。

AI モデルの出力を改善するためのテクニック

プロンプティング テクニック(Prompting techniques)

AI モデル、とくに大規模言語モデル(LLM)から望ましい出力を得るためには、効果的な「プロンプト(指示や入力)」を与えることが非常に重要です。 ここでは、基本的なプロンプティングのテクニックを見ていきましょう。

  • Zero-shot(ゼロショット)
    モデルにタスクの例を一切示さずに、タスクの説明だけで指示する方法です。 モデルがもつ汎用的な知識だけで対応できる場合や、事前データがほとんどない新しい分野での探索に適しています。

★Tips
たとえば、「次の文章を要約してください:[長文]」といった指示がこれにあたります。モデルが「要約とは何か」をすでに学習していることが前提です。

  • One-shot(ワンショット)
    モデルにタスクの例を 1 つだけ示して指示する方法です。

★Tips
新しいアルバイトの方に仕事を教える時、口で説明するよりも「こんな感じでやってみて」と一度お手本を見せた方が早く伝わることってありますよね。 AI に対する One-shot もそれに似ています。 「こういう風にお願い!」とたった 1 つ具体例を示すことで、AI に期待する回答の「型」や「雰囲気」を伝えやすくなるテクニックです。

  • Few-shot(フューショット)
    モデルにタスクの例を複数(通常は 2 〜 5 個程度)示して指示する方法です。

★Tips
One-shot よりも多くの例を与えることで、モデルはより複雑なパターンや、より具体的な指示の意図を学習できます。 たとえば、顧客からの問い合わせメールを「製品に関する質問」「料金に関する質問」「その他」に分類したい場合、それぞれのカテゴリに該当するメールの例をいくつか提示すると、モデルの分類精度が向上します。

  • Role(ロール)
    モデルに特定の役割(ペルソナ)を割り当てることで、その応答のスタイル、トーン、焦点などを制御する方法です。

★ここ重要!
試験では、特定のシナリオ(たとえば、顧客からのクレーム対応、新製品のアイデア出し、専門家向けの技術解説など)が提示され、「この場面で AI にどのような役割(Role)を与えるのが最も効果的か?」あるいは「Role を設定することで、AI の出力にどのような変化が期待できるか?」といった形式で問われる可能性があります。

単に「〜として振る舞ってください」と指示するだけでなく、出力のトーン(例:フォーマルかつ共感的、フレンドリーで創造的)、専門性のレベル(例:初心者向けに平易な言葉で、専門家向けに詳細な技術情報を含めて)、想定読者(例:小学生、ビジネスマン、研究者)などを具体的に指定することが、期待する回答を得るための鍵です。 AI の回答に一貫性をもたせ、特定の目的に特化したコミュニケーションを実現したい場合に非常に有効なテクニックです。

  • Prompt chaining(プロンプト チェイニング)
    一つの複雑なタスクを複数の単純なプロンプトに分割し、前のプロンプトの出力を次のプロンプトの入力として連鎖させていく方法です。 チャット形式で AI と対話を続け、徐々に目的の回答に近づけていくような使い方もこれに含まれます。

★Tips
たとえば、最初に「日本の有名な観光地を 3 つ教えて」と質問し、その回答(例:京都、東京、北海道)に対して、「では、京都でとくにおすすめの寺院を教えて」と続けるようなイメージです。 一度に複雑なことを聞くのではなく、段階的に質問を重ねることで、AI が文脈を理解しやすくなり、より的確な回答を引き出せる場合があります。

これらの基本的なプロンプティング テクニックは、まさに生成 AI 活用の第一歩です。クラウドエースでは、これらのテクニックをハンズオンで集中的に学べる「Writing Effective Prompts for Generative AI(開催は都度ご相談ください)」トレーニングをご用意しています。 LLM から得られる出力の品質を向上させたいすべての方におすすめです。

モデル ガイダンスと出力の調整(Model guidance and refinement)

プロンプティングテクニックにくわえ、モデルの出力をより正確で信頼性の高いものにするための重要なアプローチが「グラウンディング」と、その具体的な手法である「RAG」です。

★Tips
ここで見出しになっている「モデル ガイダンス(Model guidance)」とは、AI モデルに適切な指示やヒントを与えて、より私たちが望む方向に導くことを指します。 そして「リファインメント(refinement)」、ここでは「出力の調整」と訳していますが、これは AI モデルの生成結果を、より目的に合わせて洗練させ、質を高めていくための工夫全般を意味します。 つまり、このセクションでは、AI と上手に対話し、その能力を最大限に引き出すための方法論を学ぶ、と捉えてください。

  • Grounding(グラウンディング)
    AI の出力を、検証可能な信頼できる情報源に接続(関連付け)することです。 これにより、AI が不確かな情報を生成したり、事実と異なる内容(ハルシネーション)を答えたりするのを抑制し、回答の正確性と信頼性を高めます。 そして、グラウンディングには、主に以下の情報源があります。

    • Google Search によるグラウンディング
      モデルが回答を生成する際に、Google 検索を利用して最新の情報や信頼性の高いウェブ上の情報を参照します。 これにより、モデルの知識カットオフ(学習データが古いことによる知識の限界)を補い、より新しい情報に基づいた回答が可能になります。
    • 自社データによるグラウンディング
      企業内のドキュメント、データベース、ナレッジベースなど、組織固有の情報を参照させます。 これにより、社内規定に関する質問への正確な回答や、自社製品に関する専門的なサポートなどが可能になります。 スタディガイド p. 5 で触れた NotebookLM は、まさにこのアプローチのよい例ですね。
    • サードパーティデータによるグラウンディング
      市場調査レポート、業界ニュース、専門家の論文など、信頼できる外部の特定データソースを参照させます。 これにより、特定の分野に関するより専門的で正確な回答が期待できます。
    • Google Maps Platform によるグラウンディング
      Vertex AI の基盤モデルが、Google Maps Platform のもつ豊富な位置情報や地理空間データを活用して、具体的な場所に関する情報に基づいた回答を生成できるようにするものです。 たとえば、「東京駅周辺で、静かに作業できるカフェを教えて」といった質問に対して、単にカフェのリストを提示するだけでなく、Google Maps のレビューや混雑状況、営業時間といったリアルタイムに近い情報を加味して、よりユーザーの状況に合った提案をすることが期待できます。
  • RAG(Retrieval-Augmented Generation – 検索拡張生成)
    グラウンディングを実現するための具体的なアーキテクチャの一つです。 LLM が回答を生成する前に、まず外部の情報源から関連性の高い情報を検索・取得(Retrieval)し、その取得した情報をプロンプトに含めて(Augmentation)、LLM に渡すことで、より文脈に即した正確な回答を生成(Generation)させる仕組みです。

★ここ重要!
RAG は、ハルシネーションを抑制し、モデルの回答を最新かつ信頼性の高い情報に基づかせるための非常に重要な技術です。 生成 AI モデルは、そのトレーニングデータに含まれていない情報や、トレーニングデータが古い場合には、事実と異なる情報を生成してしまう可能性があります。 RAG は、そのような場合に外部の知識ソースを参照することで、より正確な回答を生成するのに役立ちます。

第 3 回目のセクション(スタディガイド p. 5)で、Vertex AI Search の項目に「RAG」といった記述があったのを覚えていますか? Vertex AI Search は、まさにこの RAG アーキテクチャにおける「検索・取得」の部分を担うことができる強力なツールです。

推論ループ!プロンプト エンジニアリング テクニック(Reasoning loop: Prompt engineering techniques)

より高度なプロンプト エンジニアリングのテクニックとして、モデルに「推論」と「行動」を促すものがあります。

  • ReAct(Reason and Act – 推論して行動)
    LLM がユーザーの質問に対して、まず何をすべきかを「推論」し、その推論に基づいて必要な「行動」(たとえば、ツールを使って情報を検索したり、計算したりする)を計画・実行し、その結果を元に最終的な回答を生成するアプローチです。

★Tips
これは、第 4 回目(スタディガイド p. 6)の AI エージェントの「推論ループ」で説明した考え方と非常によく似ています。 エージェントが自律的にタスクを遂行するための思考プロセスを、プロンプトを通じて LLM に促すイメージです。

  • CoT(Chain-of-Thought – 思考の連鎖)
    LLM に問題解決のプロセスを段階的に考えさせ、その中間的な思考ステップも出力させることで、より複雑な問題に対する正解率を高める手法です。 とくに、算術的な推論や常識的な推論が必要な場合に有効とされています。

★ここ重要!

  • 目的
    LLM に段階的な思考を促し、とくに算術問題、常識的推論、複数ステップが必要な問題解決能力を向上させます。
  • 方法
    プロンプト内で、質問→(思考のステップ 1)→(思考のステップ 2)→…→最終的な回答、といった「思考の連鎖」の例を示します。
  • 効果
    モデルは提示された思考プロセスを模倣しようとし、より慎重で正確な推論を行うようになります。 これにより、単に質問と答えだけを与えるよりも正解率が向上することが期待できます。

簡単に言えば、「答えだけじゃなく、考え方も一緒に教えてあげる」ことで、LLM が自力で複雑な問題を解くのを手助けするイメージです。 試験対策としても、この「思考の過程を重視する」という点を覚えておくとよいでしょう。

  • Metaprompting(メタプロンプティング)
    プロンプトを使って、AI モデルに他のプロンプトを生成させたり、修正させたり、解釈させたりする手法です。

★Tips
たとえば、「ユーザーからの曖昧な質問を、より具体的で AI が理解しやすいプロンプトに変換するプロンプト」を AI に作らせる、といった高度な使い方が考えられます。

プロンプティング ワークフローの効率化(Streamlining prompting workflows)

毎回ゼロからプロンプトを考えるのは大変なので、効率化のための工夫も重要です。

  • プロンプトの再利用(Reusing prompts)
    よく使うプロンプトをテンプレートとして保存しておき、必要な時に再利用します。
  • プロンプト チェイニングの活用(Leveraging prompt chaining)
    同じチャットボットとの会話を続けることで、文脈を維持したまま、より深い情報を引き出します。
  • Gemini での保存情報の活用(Using saved info in Gemini)
    モデルに特定の情報を記憶させておき、一貫してその情報を使わせることができます。
  • Gems の活用(Gems)
    Gemini Advanced の機能である Gems は、特定の指示に合わせてパーソナライズされた応答を提供する AI アシスタントです。 テンプレート、プロンプト、ガイド付きインタラクション(たとえば、AI がユーザーに必要な情報を質問形式で聞き出したり、選択肢を提示したりすることで、スムーズに対話を進められる仕組み)といったワークフローを効率化します。

★ここ重要!
Gems は、特定のタスクや目的に合わせて Gemini を自分専用にカスタマイズできる非常に強力な機能です。 たとえば、みなさんが頻繁に行う業務(週報の作成、特定の形式でのメール返信、ブレインストーミングなど)に合わせて、専用の Gem を作成しておけば、毎回同じような指示をプロンプトとして入力する手間を省き、作業効率を大幅に向上させることができます。

試験で問われる可能性があるのは、一般的な AI 支援機能(たとえば、Gmail の「Help me write」のような汎用的な文章作成支援)と、Gems のようなカスタマイズされた AI アシスタントの使い分けです。 「Help me write」は、手軽に一般的なメール作成の支援を受けたい場合に便利ですが、特定の社内用語や定型的な報告フォーマット、あるいは特定の思考プロセスに基づいてコンテンツを生成したいといった、より個別化・効率化されたニーズがある場合には、Gems を活用して専用の AI アシスタントを構築する方が効果的である、といった判断ができるようにしておきましょう。

Gems は、まさに「かゆいところに手が届く」AI 活用を実現するためのツールと言えます。

サンプリング パラメータ(Sampling parameters)

AI モデルの振る舞いを制御し、生成される結果をカスタマイズするための設定値です。

  • トークン カウント(Token count)
    テキストのまとまり(単語や句読点など)の数を表します。
  • Temperature(温度)
    テキスト生成時の単語選択における「創造性」やランダム性を制御します。 値が高いほど多様で創造的な出力になりますが、一貫性が失われる可能性もあります。

★ここ重要!
この Temperature は、AI の「発想の自由度」を調整するレバーのようなものです。 たとえば、マーケティングチームが新しいキャッチコピーのアイデアをたくさん出したい、あるいは斬新な製品コンセプトをブレインストーミングしたい、といった場合には、Temperature の値を高めに設定することで、AI はより多様で、時にはあっと驚くようなクリエイティブな提案をしてくれる可能性があります。

一方で、社内規定に関する正確な説明や、法律に基づいた回答、あるいは数値データのレポート作成といった、事実に基づいた一貫性のある出力が求められる場合には、Temperature の値を低めに設定するのが適切です。 これにより、AI が「暴走」して不確かな情報を生成するリスクを抑え、より信頼性の高い、安定した結果を得やすくなります。

「クリエイティビティを求めるなら高めに、正確性や一貫性を求めるなら低めに」という基本的な考え方を理解し、具体的なユースケースと結びつけて覚えておきましょう。

  • Top-p(核サンプリング – nucleus sampling)
    テキスト生成時に考慮される、最も可能性の高いトークンの累積確率(確率の高い順に出力の候補を選んでいき、それらの確率を足し算していった合計値)です。 これもモデルの出力のランダム性を制御する方法の一つです。
  • 安全設定(Safety settings)
    生成されるコンテンツから、潜在的に有害または不適切なものをフィルタリングするための設定です。
  • 出力の長さ(Output length)
    生成されるテキストの最大長を決定します。

これらのパラメータ調整は、AI の出力をコントロールするうえで重要なスキルです。クラウドエースの「Application Development with LLMs on Google Cloud」トレーニングでは、プロンプト エンジニアリングとあわせて、これらのパラメータを実際に調整しながら LLM を搭載したアプリケーションを構築する方法を学びます。

ラリオス的!とくに注目したいポイント

今回は、生成 AI モデルからよりよい結果を引き出すための具体的なテクニックが満載でしたね。

  • プロンプティングの基本(Zero-shot、One-shot、Few-shot、Role、Prompt chaining)は、LLM との対話の基本として必ず理解しておきましょう。 それぞれのテクニックがどのような状況で有効なのかを把握することが重要です。
  • グラウンディングと RAG の概念は、ハルシネーション対策や回答の信頼性向上の観点から、試験でも実務でも非常に重要です。 Vertex AI Search との関連性も合わせて覚えておきましょう。
  • ReAct や CoT といった高度なプロンプティング テクニックは、LLM に複雑な推論やタスク実行をさせるための鍵となります。 これらのキーワードと基本的な考え方を理解しておくと、より高度な AI 活用のイメージが湧きます。
  • サンプリング パラメータ(とくに Temperature)が、モデルの出力の「創造性」や「多様性」にどう影響するのかを理解しておくことは、期待するアウトプットを得るために重要です。

学習のヒント|効率的な学習

  • 実際に手を動かしてみる
    Google AI Studio や Vertex AI Studio の Generative AI Studio などを使って、さまざまなプロンプティング テクニックを試してみるのが一番の近道です。 同じ質問でも、プロンプトの与え方を変えるだけで出力がどう変わるかを体験してみましょう。
  • 「なぜこのテクニックが有効なのか?」を考える
    各テクニックの表面的な使い方だけでなく、それが AI モデルの思考プロセスや出力にどのような影響を与えるのか、その背景にある考え方を理解しようと努めることが大切です。

理解度チェック!ミニクイズ

さて、ここまでの内容をどれくらい理解できたか、簡単なクイズで確認してみましょう!

【クイズ 1】
AI モデルにタスクの例を一切示さず、タスクの説明だけで指示するプロンプティング テクニックは何ですか?

(ア)One-shot
(イ)Few-shot
(ウ)Zero-shot
(エ)Role prompting

【クイズ 2】
AI の出力を、検証可能な信頼できる情報源(例:社内ドキュメントや Google 検索)に接続することで、回答の正確性や信頼性を高めるアプローチを何と呼びますか?

(ア)ファインチューニング
(イ)プロンプト チェイニング
(ウ)グラウンディング
(エ)強化学習

【クイズ 3】
LLM が回答を生成する前に、まず外部の情報源から関連性の高い情報を検索・取得し、その取得した情報をプロンプトに含めて LLM に渡すことで、より文脈に即した正確な回答を生成させる仕組みの略称は何ですか?

(ア)API
(イ)SDK
(ウ)RAG
(エ)SSO

クイズの答え

【クイズ 1】(ウ)Zero-shot

【クイズ 2】(ウ)グラウンディング

【クイズ 3】(ウ)RAG

ラリオスからの挑戦状!実践演習クイズ

ここからは、より深く、そして実践的な視点からのクイズです。 Generative AI Leader Sample Questions のレベル感を意識して挑戦してみましょう!

【実践演習クイズ 1】
ある企業が、自社製品に関する顧客からの問い合わせに自動で応答する AI チャットボットを開発しています。 このチャットボットは、まだ学習データに含まれていない最新の製品情報や、頻繁に更新される FAQ に基づいて、つねに正確で最新の情報を提供する必要があります。 この要件を満たすために、チャットボットの回答生成能力を向上させる最も効果的な技術的アプローチとして考えられるものはどれですか。

(ア)チャットボットの基盤モデルを、より大規模で汎用的な知識をもつモデルに定期的に置き換える。
(イ)RAG(検索拡張生成)を導入し、チャットボットが回答を生成する際に、つねに最新の製品ドキュメントや FAQ データベースを参照するようにする。
(ウ)Few-shot プロンプティングのみを徹底的に行い、あらゆる問い合わせパターンに対応できるような多数の具体例をプロンプトに含める。
(エ)チャットボットの Temperature パラメータを極端に低く設定し、生成される回答の創造性を抑え、事実に基づいた応答のみを強制する。

実践演習クイズの答えと解説

【実践演習クイズ 1】(イ)RAG(検索拡張生成)を導入し、チャットボットが回答を生成する際に、つねに最新の製品ドキュメントや FAQ データベースを参照するようにする。

このチャットボットの最も重要な要件は、「つねに正確で最新の情報を提供すること」です。 これを実現するためには、チャットボットが回答を生成する際に、外部の最新情報源にアクセスできる仕組みが必要です。

(イ)RAG(検索拡張生成)は、まさにこのための技術です。 RAG を導入すると、チャットボットは質問を受けた際に、まず関連する最新の製品ドキュメントや FAQ データベースを検索します。 そして、そこで得られた情報を基に LLM が回答を生成するため、つねに最新かつ正確な情報を提供できます。 これが最も効果的なアプローチです。

他の選択肢がなぜ最適ではないか簡単に見てみましょう。
(ア)基盤モデルの定期的な置き換え:大規模モデルも知識は豊富ですが、その知識は学習時点のものであり、リアルタイムの更新には対応できません。 また、置き換えの頻度やコストも課題です。

(ウ)Few-shot プロンプティングのみの徹底:プロンプトに具体例を含めることは有効ですが、「あらゆる問い合わせ」や「頻繁に更新される情報」全てをプロンプトだけで網羅するのは現実的ではありません。 情報が更新されるたびにプロンプトを修正するのも非効率です。

(エ)Temperature パラメータを極端に低く設定:Temperature を下げることは、回答のランダム性を抑え、(モデルが学習している範囲で)より事実に基づいた応答を促しますが、モデルが元々知らない最新情報を生成できるようになるわけではありません。

したがって、最新情報へのリアルタイムなアクセスとそれに基づいた回答を生成する(イ)RAG が最適な解決策となります。

まとめ!AI との対話術を磨き、価値を最大化する(クラウドエースのトレーニング紹介)

今回の解説はここまでです!今回は、AI モデルの出力を改善するための非常に重要なテクニック、とくにプロンプティングとグラウンディング、RAG について学びました。

生成 AI から期待通りの、あるいはそれ以上の価値を引き出すためには、私たちが AI に対してどのように「問いかける」か、つまりプロンプトの設計が非常に重要です。そして、AI の回答の信頼性を高めるためには、RAG のようなグラウンディングの技術が不可欠です。これらのテクニックは、AI を単なる「おしゃべりな道具」から、ビジネス課題を解決するための「信頼できるパートナー」へと昇華させるための鍵と言えるでしょう。

Generative AI Leader としては、これらのテクニックを理論として知っているだけでなく、どのようなビジネスシーンでどのテクニックを適用すべきかを判断し、実践できる能力が求められます。

クラウドエースでは、まさにこの「AI との対話術」を磨くためのトレーニングをご用意しています。たとえば、「Writing Effective Prompts for Generative AI(開催は都度ご相談ください)」では、効果的なプロンプトを作成するための基本的な考え方から応用テクニックまでを体系的に学ぶことができます。 また、「Application Development with LLMs on Google Cloud」では、RAG を含めたより実践的なアプリケーション開発手法をハンズオンで習得できます。 これらのトレーニングを通じて、みなさんの AI 活用スキルを次のレベルへと引き上げるお手伝いをいたします。

次回は、スタディガイド p. 9 に進み、「基盤モデルの限界(Foundation model limitations)」や「モデルの管理(Managing your model)」といった、AI モデルを実運用していくうえで避けては通れない課題とその対処法について詳しく見ていきます。

お楽しみに!

【第 1 回】Generative AI Leader 資格集中講座!Google Cloud 認定講師による日本語解説
【第 2 回】Generative AI Leader 資格集中講座!データを制する者が AI を制す!
【第 3 回】Generative AI Leader 資格集中講座!Google Cloud の AI パワーを徹底解剖!
【第 4 回】Generative AI Leader 資格集中講座!Vertex AI・AI エージェントの活用法
【第 5 回】Generative AI Leader 資格集中講座 Google Cloud AI API を徹底解説

クラウドエースの Google Cloud 認定トレーニングに関するお問い合わせはこちらから。
https://cloud-ace.jp/gcp-training/