【速報】 Google I/O 2025!Geminiの進化と驚きの新機能

※この記事は、Google I/Oの興奮をいち早くみなさんにお届けするために、速報としてまとめています。できる限り正確な情報をお伝えできるよう心がけていますが、もし内容に誤りなどがありましたら、後日訂正いたしますので、ご了承ください。

こんにちは! クラウドエースのエモーショナルエバンジェリスト、ラリオスです。

本日(日本時間:2025年5月21日2時より)開催されたGoogle I/O 2025は、AIに関する数々の発表で世界中から大きな注目を集めました。 Google I/Oは、Googleが毎年開催している開発者向けのイベントで、Googleの最新技術や新しい製品、サービスのアップデートが発表される場として知られています。

今回のGoogle I/Oは、「AIの進化とその実用化」がメインテーマとなり、私たちの仕事や生活を大きく変える可能性をもつ技術やサービスが多数発表されました。

では、具体的にどのような発表があったのか、速報としてお届けします!

お急ぎの方向け!1行速報

  • Gemini 2.5 Pro/Flash進化:基盤AI「Gemini」が性能とコーディング能力を大幅に向上させ、新機能の土台に。
  • Gemini Diffusion 発表:テキスト生成に拡散技術を応用、編集やコード生成に強く超高速な新研究モデル登場。
  • Google Beam登場:まるでその場にいるような臨場感で会話できる3Dビデオコミュニケーションが登場。
  • Google Meetリアルタイム翻訳:Google Meetに多言語間のリアルタイム音声翻訳機能が搭載、言葉の壁を解消へ。
  • Project Astra公開:周囲の状況を理解し自然に対話する汎用AIアシスタントの驚きのデモを披露。
  • Project Mariner API提供:複雑なWeb操作も代行するAIエージェント機能をGemini API経由で開発者へ。
  • パーソナルコンテキスト始動:Googleアプリ間の情報連携で、一人ひとりに最適化されたAI体験を実現。
  • Google Search「AIモード」:Gemini 2.5搭載で質問理解力や分析力が向上した新しい検索体験を提供開始(米国)。
  • Search Live機能:カメラ映像を通して、目の前のものについてリアルタイムでAIと対話しながら検索。
  • Searchショッピング機能進化:AIによるバーチャル試着や価格トラッキング、購入サポートでより便利に。
  • Gemini Live機能拡張:カメラや画面共有が無料化、今後Googleカレンダーなど主要アプリとも連携予定。
  • Imagine 4(画像生成):より高品質でニュアンス豊かな画像を生成できる新モデルがGeminiアプリに。
  • Veo 3(動画生成):プロンプトからついに音声付きのリアルな動画を生成、キャラクターの会話も可能に。
  • Canvas(Geminiアプリ内):レポートの自動生成やAIとの共同作業でインタラクティブなコンテンツ作成を支援。
  • Gemini in Chrome:Chromeブラウザでのウェブ閲覧中に、ページの文脈を理解したAIアシストを利用可能に。
  • AI映像制作ツール「Flow」:Veo、Imagine、Geminiを統合し、クリエイターのアイデアを形にする新ツール発表。
  • Gemini APIアップデート:テキスト読み上げ機能の強化やAIの思考プロセスを可視化する機能などを追加。
  • コーディングAI「Jules」:タスク指示でバグ修正やコード更新を自律的に行うAIエージェントがパブリックベータに。
  • Google AI Ultraプラン登場:最新AI機能への早期アクセスなどが可能な新サブスクリプションプランが米国で開始、順次グローバル展開。
  • Gemini 2.5 Pro「DeepThink」モード:Ultraプラン加入者向けに、Gemini 2.5 Proの性能を最大限に引き出す高度な思考・推論モードを提供予定。
  • Android XRヘッドセット「Project MUHAN」:Samsungと共同開発のAndroid XRデバイスで没入型AI体験を提案。
  • Android XRメガネ型デバイス:メガネ型デバイスのプロトタイプを公開、有名アイウェアブランドとも提携。
  • AIによる社会課題解決:衛星での山火事早期検知「Firesat」やドローンでの災害救援「Wing」など、AIの貢献事例を紹介。

アーカイブ動画はこちら

Google I/O ’25 Keynote

基盤となるAI「Gemini」がさらに進化! より賢く、より速く

今回のGoogle I/Oでも、あらゆる発表の土台となっていたのが、Googleの最新AIモデル「Gemini」です。

まず、Gemini 2.5 Proは、その性能が大幅に向上しました。 Eloスコアという指標では第一世代のGemini Proから300ポイント以上もアップし、LMArenaという評価の場では全てのカテゴリーでリーダーボードのトップを獲得しています。

とくにコーディング能力が向上しており、WebDev Arenaでナンバーワンに輝いたほか、AIコードエディタのCursorにおいては今年最も急速に成長しているモデルと評価されています。 実際にGeminiが提案したコードは、毎分数十万行も採用されているそうです。

また、約2週間前には、Geminiが「ポケモン青」をクリアしたことも話題になりましたが、これについてCEOのスンダー・ピチャイ氏は「API、つまりArtificial Pokemon Intelligence(人工ポケモン知能)の実現に一歩近づいた」とジョークを飛ばし、会場を和ませていました。

さらに、より高速で効率的な「Gemini 2.5 Flash」もアップデートされ、こちらも主要なベンチマークでGemini 2.5 Proに次ぐ性能を叩き出しています。

そして、前回のI/Oからこの1年で、12を超えるモデルや研究成果を発表し、20以上の主要なAI製品や機能もリリースしてきました。 月間で処理するトークン量は、なんと前年の約50倍となる480兆トークン、Gemini APIを利用する開発者は700万人を超え、さらに、Geminiアプリの月間アクティブユーザー数は、4億人以上にのぼるそうです。

さらにテキスト生成では、新研究モデル「Gemini Diffusion」が発表されました。

これは AI が文章を作る際に「拡散モデル」という技術を使い、特に文章の編集や数学的な記述、プログラミングコードの生成で高い性能を発揮します。

従来のように左から右へ書き進めるだけでなく、内容を素早く修正したり、生成途中で間違いを直したりできるのが特徴で、従来の最速モデルより 5倍 も速い応答が可能です。

この Gemini Diffusion は、現在、一部のテスター向けに提供されています。

このように進化した Gemini が、これから紹介するさまざまな新機能やサービスを支えています。

コミュニケーションの未来を体験!リアルを超える新技術

進化したGeminiによって、まるでSF映画で見たような未来がやってくるかもしれません。

その筆頭が、3Dビデオコミュニケーションプラットフォーム「Google Beam」です。 AIと最新の映像技術を駆使することで、離れた場所にいる相手と、超リアルな3D映像で会話できる、まさに次世代のコミュニケーション体験を提供します。

このGoogle Beamのデバイスは、HP(ヒューレット・パッカード)との協業により、今年後半には初期の顧客向けに提供が開始される予定です。

そして、多くの人が利用している「Google Meet」にも驚くべき進化がありました。ついに、自然なリアルタイム音声翻訳機能がMeetに搭載されます。 話し手の声のトーン、会話のパターン、さらには表情までも翻訳結果に反映させることができるそうです。

デモンストレーションでは、異なる言語を話す二人が、スムーズに会話を続ける様子が披露され、会場を沸かせました。 この機能は、まずは英語とスペイン語の翻訳から提供が開始され、今後順次対応言語も拡大していくとのことです。

AIアシスタントが次のステージへ! 「あなただけの」サポートを実現

AIアシスタントがさらに進化し、より個人のニーズに寄り添ったサポートを提供してくれます。

まず注目されたのが、汎用AIアシスタントを目指す「Project Astra」です。 デモンストレーションでは、スマートフォンのカメラで周囲の状況をリアルタイムに理解し、ユーザーの質問に答えたり、アドバイスをしたりする様子が公開されました。 そのなかで、ユーザーがゴミ収集車を指して「かっこいいオープンカーだね」と発言したところ、Project Astraがすかさず「それはゴミ収集車をオープンカーと見間違えていると思いますよ」と冷静に指摘し、会場の笑いを誘う場面もありました。

このProject Astraの機能(カメラや画面共有など)の一部は、Gemini Liveに統合され、AndroidおよびiOSの全てのユーザー向けに本日より提供が開始されました。

さらに、Web上の操作を自動化してくれるエージェント技術「Project Mariner」も発表されました。 たとえば、複数のウェブサイトを横断して情報を収集したり、フォーム入力を自動で行ったりといった、これまで手間のかかっていた作業をAIが代行してくれるようになります。 このProject Marinerの機能は、Gemini APIを通じて開発者にも提供される予定です。

そして、これらのアシスタント機能をさらに強力にするのが「パーソナルコンテキスト」という考え方です。 ユーザーの許可のもと、GmailやGoogle DriveといったGoogleアプリ間の情報を連携させることで、一人ひとりに最適化された情報提供やサポートを行えるようになります。 たとえば、Gmailでのメール作成時に、過去のやり取りやドライブ内の資料を踏まえた、より自然でパーソナルな返信案を提案してくれるといった活用が紹介されました。

Google Searchが大変革! 「AIモード」で検索体験が根本から変わる

毎日多くの人が利用するGoogle Searchも、AIによって大きく変わります。

すでに提供されている「AI Overview」は、毎月15億人以上の人に利用されていますが、今回、さらに進んだ「AIモード」が米国で提供開始となりました。 このAIモードには最新のAIモデル「Gemini 2.5」が搭載され、これまで以上に複雑で長い質問にも対応できるようになります。 単に情報を探すだけでなく、AIが質問を理解し、関連する情報を集めて整理することで、複数の情報を組み合わせた深い分析や、分析結果をグラフなどで分かりやすく表示することも可能です。

とくに注目したいのが「Search Live」という機能です。

これは、スマートフォンのカメラに写っているものについてリアルタイムでAIと対話しながら検索できるというものです。 デモンストレーションでは、子どもたちが科学実験の進め方についてAIに質問したり、イチゴが食べごろかカメラに映して尋ねたり、さらには動かなくなったリモコンを見せて修理方法を相談したりと、親子でAIと対話しながら日常の疑問を解決していく様子が具体的に紹介されました。

また、ショッピング体験も大きく進化します。AIモードでは、探している商品のイメージを伝えると、関連性の高い商品を提案してくれるだけでなく、洋服などを自分の写真に合わせて試着できる機能も利用できます。 この機能は、ファッションに特化して学習した独自の画像生成モデルにより、ユーザー自身の写真上で、素材の折り目や衣服が体にどう馴染むかといった質感をリアルに再現するとのことです。

さらに、気に入った商品があれば、AIが価格をトラッキングし、設定した価格になったら通知してくれる機能や、購入手続きをサポートしてくれるエージェント機能も登場する予定です。 そして、より専門的な情報を得たい場合には、「Deep Research」機能が、関連情報を徹底的に調査し、詳細なレポートを数分で作成してくれます。

また、先ほどご紹介した「パーソナルコンテキスト」によってユーザーの過去の検索履歴や、許可をすればGmailなどのGoogleアプリの情報と連携する、一人ひとりに最適化された検索結果や提案を受け取れるようになります。 さらに、Project Marinerのエージェント技術を活用し、イベントのチケット予約やレストランの予約なども、検索の中でAIに手伝ってもらえるようになるとのことです。

Geminiアプリがクリエイティブツールに! 画像も動画も思いのまま

Geminiアプリは、AIアシスタント機能にくわえ、コンテンツ作成を支援するクリエイティブツールとしての側面も強化されました。

まず、「Gemini Live」では、カメラを通じた情報共有や画面共有機能が無料で利用できるようになりました。 これにより、目の前にものをカメラに映しながら質問したり、スマートフォンの画面を共有して操作のサポートを受けたりすることが可能になります。

さらに、今後数週間でGemini Liveは、Googleカレンダー、Googleマップ、Google Keep、Google Tasksといったアプリとの連携も可能になる予定です。 たとえば、カメラでイベントのチラシを映してカレンダーに予定を追加したり、手書きの買い物リストをKeepにテキスト化したりといったことができるようになります。

そして、画像生成においては、新しいモデル「Imagen 4」が導入されます。 このモデルは、より豊かな色彩と細かなディテールを表現でき、特に画像内の文字(タイポグラフィ)の精度が向上しているとのことです。

さらに、動画生成では、音声付きの動画をプロンプトから作成できる「Veo 3」が発表されました。 これにより、ユーザーが指示するだけでキャラクターが話したり、シーンに応じた効果音が含まれたりする動画を生成できるようになります。

そして、クリエイティブ分野では音楽生成 AI「Lyria」も進化を続けています。プロのミュージシャンが作曲などの創作活動に活用できるツール「Music AI Sandbox」では、この Lyria が利用されています 。

最新版となる「Lyria 2」では、ボーカルやコーラスを含む、プロフェッショナル品質のメロディアスな楽曲を生成できるようになり、企業や YouTube クリエイター、ミュージシャン向けに提供が開始されました 。

イベントでは、アーティストの Toro y Moi さんが、AI とリアルタイムで音楽を共創する「Lyria RealTime」を使った即興演奏のデモンストレーションも披露し、会場を魅了しました 。

また、Geminiアプリの「Canvas」も進化します。 アップロードしたレポートからウェブページ、インフォグラフィック、クイズ、ポッドキャストなどを自動生成したり、ユーザーがアイデアを記述することでインタラクティブなコンテンツをAIと共同で作成できるようになります。

そして、ブラウジング体験の向上のために「Gemini in Chrome」が導入されます。 これにより、Chromeブラウザでウェブページを閲覧中に、そのページの内容に基づいたサポートをAIアシスタントから受けられるようになります。

AIが創造のパートナーに。「Flow」で映像制作が変わる

Googleは、AIを活用した新しい映像制作ツール「Flow」を発表しました。 このツールは、これまで紹介された動画生成モデル「Veo」、画像生成モデル「Imagen」、そして対話型AI「Gemini」の技術を統合したものです。

Flowを使うことで、クリエイターはアイデアを記述したり、画像や動画の素材を組み合わせながら、AIで映像作品を制作できます。 たとえば、キャラクターやシーンのスタイルを指定し、それらを一貫して保ったまま動画を生成したり、具体的なカメラの動きを指示したりすることが可能です。 これにより、映像制作のプロセスが効率化され、クリエイターはより創造的な作業に集中できるようになることが期待されます。

開発者向けにも強力アップデート! Gemini APIと新ツール群

開発者向けには、Gemini APIの機能拡張や新しいツールが発表されました。 Gemini APIテキスト読み上げ機能において、新たに複数の話者に対応した音声出力が可能になったほか、AIモデルの思考プロセスを要約して表示する「Thought Summaries(思考サマリー)」機能などが追加されました。

また、コーディング作業を支援するAIエージェント「Jules」のパブリックベータが開始されました。 Julesは、タスクを指示するだけで、バグ修正やコードの更新などを自律的に行うことができます。

さらに、Gemini 2.5 Proには、より高度な思考や推論を行うための新しいモード「DeepThink」が導入される予定です。 このモードは、とくに複雑な問題解決や、質の高い応答生成が求められる場面での活用が期待されています。

これらの開発者向け最新機能や、今後提供されるGemini 2.5 Proの「DeepThink」モードなどをいち早く利用したいユーザー向けに、新しいサブスクリプションプラン「Google AI Pro」および「Google AI Ultra」が発表されました。

とくに「Google AI Ultra」プランは、Googleの最先端AI機能への早期アクセスや高い利用上限を提供し、米国で提供開始後、順次グローバルに展開される予定です。 このUltraプランの加入者は、準備が整い次第、GeminiアプリでGemini 2.5 Pro DeepThinkモードを利用できるようになります (月額は$249.99とのことです )。

現実世界とAIが融合する「Android XR」と新しいデバイス体験

Googleは、現実世界とデジタル情報を融合させるXR(エクステンデッドリアリティ)技術への取り組みも強化しており、Samsungと共同開発を進めているヘッドセット「Project Moohan」が紹介されました。 このデバイスは、Android XRプラットフォーム上で動作し、ユーザーは広大な仮想スクリーンでアプリを利用したり、Geminiによるサポートを受けたりすることができます。

さらに、メガネ型のXRデバイスのプロトタイプも公開されました。 このデバイスは、カメラやマイク、スピーカー、レンズ内ディスプレイを搭載し、ユーザーが見ているものや周囲の状況をGeminiが理解し、リアルタイムで情報提供やアシストを行うことを目指しています。

デモンストレーションでは、目の前のものについて質問する様子のほか、二人の話者がそれぞれヒンディー語とペルシャ語で会話し、その内容がメガネのディスプレイにリアルタイムで英語翻訳されて表示される様子が披露されました。

Googleはこの分野で、アイウェアブランドのGentle MonsterおよびWarby Parkerとの提携も発表しました。

AIは社会課題の解決にも貢献。Googleが描く未来像

Googleは、AI技術を社会課題の解決に役立てる取り組みも進めています。

その一例として、衛星画像とAIを活用して小規模な山火事を早期に検知するシステム「Firesat」や、ハリケーン発生時にドローンを使って食料や医薬品などの救援物資を避難所に届けた「Wing社(アルファベットの子会社)」の事例が紹介されました。 これらの活動は、AIが人々の生活をより安全で豊かなものにする可能性を示しています。

そして、Googleは、AGI(汎用人工知能)の実現に向けた研究開発を継続するとともに、AIの責任ある開発と利用の重要性を強調しています。

まとめ:Google I/O 2025が示したもの

今回のGoogle I/O 2025では、AIが私たちの日常や仕事のあらゆる場面に浸透し、そのあり方を大きく変えていく未来が示されました。

基盤となるAIモデルGeminiの進化から、検索、コミュニケーション、クリエイティブ制作、さらには現実世界とのインタラクションに至るまで、AIはよりパーソナルで、より強力なサポートを提供する存在になろうとしています。

発表された数々の新技術やサービスは、単に便利なツールというだけでなく、これまでできなかったことを可能にする力があります。AIがより身近になることで、誰もがその恩恵を受け、新しい価値を生み出せる時代が近づいているのかもしれません。

もちろん、AIの進化はまだ始まったばかりで、解決すべき課題も残されています。しかし、Google I/O 2025で示された未来像は、AIと人間が協力し、よりよい社会を築いていくことへの期待を抱かせるものでした。

新しい技術に触れることは、常に新しい発見と興奮をもたらしてくれます。今回の発表が、みなさんにとって、未来への期待を膨らませるきっかけとなれば幸いです。

もし、今回の発表内容を踏まえて、「自社のビジネスにどう活用できるだろうか?」「具体的な導入ステップについて相談したい」といったお考えをお持ちでしたら、私たちクラウドエースがその一歩をサポートさせていただきます。

ぜひお気軽にお声がけください。

お問い合わせはこちら

https://cloud-ace.jp/contact/