*ファインチューニングとは
すでに学んだことを元に、新しいことを効率的に学べるようにする手法。例えば AI に「猫」を理解させるために大量のデータで学習させた後、「犬」を理解させる場合、また一から学習し直すのではなく、すでに学習済みの「猫」との誤差をインプットしチューニングさせることで効率的な学習を行う。
Vertex AI Embeddings for Text の機能について、もう少し詳しく見ていきましょう。
あなたが Google で「大人向けの数学の参考書」と検索したとき、Vertex AI Embeddings for Text を使用すると、単に「数学」や「参考書」のキーワードに合致する結果を表示するのではなく、実際の意図、つまり「大人向け」であることを理解し、「数学を学び直したい社会人向けの参考書」というユーザーの意図に基づいた結果を上位に表示します。これは、このツールが文章の「意味」を把握し、それをベースに検索を行うからです。
高精度なテキスト分類
2 つ目は、事前学習なしでの高精度なテキスト分類です。
Vertex AI Embeddings for Text では、一旦正しいカテゴリラベルにマッピングするモデルを学習すると、その後、新しいテキストをインポートした場合もそのエンべディングに基づいて分類することができます。
これまでの言語モデルでは、特定のタスクに特化した学習が不可欠でした。しかし、Vertex AI Embeddings for Text ではさまざまな文脈を深く理解した上でエンべディングを生成できるため、事前学習やファインチューニングせずに高精度のテキスト分類に使用できるようになるのです。
検索結果の信頼性の向上
3 つ目は、検索結果の信頼性の向上です。
ここまで見てきた通り、Vertex AI Embeddings for Text では、さまざまなテキストの文脈を深く理解した上でエンべディングが生成され、そこから検索結果が返されます。検索結果にモデルが人工的に生成した文章が使われることはありません。
これまでの生成系 AI では、記憶量に制限があったり、人工知能が学習したデータからは正当化できないはずの回答を堂々とする「幻覚(ハルシネーション)」が起きたりといった課題が指摘されていました。しかし、Vertex AI Embeddings for Text ではこのような問題が起こることはありません。
Vertex AI Embeddings for Text のユースケース
最後に、Vertex AI Embeddings for Text がビジネスや組織でどのように活用できるのか、具体的なユースケースについて紹介します。
大量の論文から必要な情報を抽出
1 つ目の例は、大量の論文から必要な情報を素早く・正確に抽出することです。これは、Vertex AI Embeddings for Text を利用した Google Cloud のプロダクト「Enterprise Search」を使うことで可能となります。
Vertex AI Embeddings for Text を使って製品をマッピングし、クエリと候補の間の関係を学習させることで、より精度の高いレコメンデーションを実現できます。データをユーザの検索意図や、製品が持つ意味などビジネスにおけるエンべディングに編成するため、より消費者のニーズに近いものを提案できるようになるのです。これは単純なキーワード検索を超える精度で、なおかつ非常に関連性の高いレコメンドとなり得ます。
なお、Google Cloud では今後、ドキュメントや Web テキストだけでなく、画像などメディアも検索対象としたサービスを提供する予定とのことです。例えば製品画像の意味をキャプチャすることで、製品の説明文のみでなく、画像の意味による検索ができるようになります。
まとめ
ここまで、Vertex AI Embeddings for Text の機能やユースケースについて解説してきました。Vertex AI Embeddings for Text は、意味による検索を実現し、より精度の高い検索結果を得るのに役立つサービスです。生成系 AI の信頼性を高めたい方や、大量データを正確に LLM に記憶させたいと考えている方は、活用を検討してみてください。