• Google Cloudに関する記事
5分で読める

コンピューティング最新情報 Google Cloud Next’22

こんにちは、クラウドエース編集部です。

2022 年 10 月に開催された Google Cloud Next’22 では、さまざまな Google Cloud の新サービス・新機能が発表されました。

今回は、Google Cloud Next’22 で行われた発表されたの中でも、特にコンピューティング関連の最新情報についてまとめて紹介します。

インテル IPU を搭載した仮想マシン「C3 Compute Engine VM」

1 つ目は、インテル IPU を搭載した仮想マシン「C3 Compute Engine VM」のリリースです。

これは、第 4 世代 Intel Xeon Scalable プロセッサと、Google と Intel が共同開発した Intel IPU を搭載した仮想マシンです。これまでは CPU が担っていた処理を IPU にオフロードすることで、より効率的なコンピューティング、ハイパフォーマンスなストレージを実現します。これにより、200 Gbps の低レイテンシのネットワーキングが可能となります。

なお、Google Cloud では仮想マシン用の次世代ブロックストレージ「Hyperdisk」もリリースしました。Hyperdisk と C3 VM を組み合わせることで、前世代の C2 VM と比べてスループットを 4 倍に、1 秒当たりの I/O 回数を10 倍にできるようになります。

C3  VM は、実際の利用者からも高い評価を得ています。

Snapchat などを展開する Snap Inc.では

「前世代の C2 VM と比べて 20% のパフォーマンス向上が確認された」

ミドルウェアプラットフォームを提供する Parallel Works Inc.では

「ほぼ同じ計算コストで 10 倍速く結果が得られた」

解析ツールを提供する Ansys では

「メモリ帯域幅の増加とネットワーク レイテンシの低減により、C2 VM と比べて最大 3 倍のパフォーマンス向上が見られた」

といった声が上がっています。

低コストで大規模トレーニングを実現する ML インフラ「Cloud TPU v4 Pod」

2 つ目は、低コストで大規模トレーニングを実現する ML インフラ「Cloud TPU v4 Pod」の発表です。

ネットワークセキュリティから医療診断に至るまで、ビジネスや研究に飛躍的な進歩をもたらす機械学習。今回 Google は、機械学習ワークロードの高速化を実現する Tensor Processing Unit(TPU)の第 4 世代を発表しました。

Cloud TPU とは、翻訳、フォト、検索、Gmail などさまざまな Google サービスを支える機械学習 ASIC(集積回路)です。 Google Cloud の AI サービスを使用して、最先端の機械学習モデルを実行するように設計されています。

今回発表された Cloud TPU v4 Pod は、4,096 のTPU v4を組み合わせたユニットです。1 秒間に可能な浮動小数点演算の回数が前世代 v3 Pod の 2 倍以上となり、これはノート PC 用プロセッサに換算すると 1,000 万個分に相当する能力だそうです。このような高いパフォーマンスを実現する TPU により、トレーニング時間の短縮を可能とします。

利用者からは「前世代の TPU v3 Pod から Cloud TPU v4 Pod に移行し、モデルのトレーニング時間が最大 70% 短縮された。さらに Cloud TPU v4 Pod は二酸化炭素排出量が極めて低い」「TPU v4 のパフォーマンスが他の最高水準のコンピューティングアーキテクチャを上回っただけでなく、顧客指向のサポートも期待を上回っていた」といった声があります。

NVIDIA A100 GPUのメモリを拡張した「A2 Ultra」

3つ目は、NVIDIA A100 GPU のメモリを拡張した「A2 Ultra」の一般提供の開始です。

 NVIDIA A100 は、NVIDIA が提供する 世界最高のパフォーマンスを誇る GPU です。そして今回発表された「A2 Ultra GPU」 は、  NVIDIA A100 と 80 GB の GPU メモリが搭載されています。これは Google Cloud の中で最大かつ最速の GPU メモリとなります。

これは特に、AI アシスタント、レコメンデーションシステム、自動化などにおける AI/ML およびハイパフォーマンスコンピューティングのワークロードに最適化されています。

A2 マシンには、A2 Standard マシンタイプと A2 Ultra マシンタイプが用意され、これらのマシンには 12 ~ 96 個の vCPU と最大 1360 GB のメモリがあります。A2 Ultra は、A2 Standard マシンと比較して、25% 高いスループットと、2 倍高性能なハイパフォーマンスコンピューティングのシミュレーションを実現しています。

GPUのジョブのバッチ実行を可能とするジョブスケジューラ「Batch」

4 つ目は、GPU のジョブのバッチ実行を可能とするジョブスケジューラ「Batch」のリリースです。

Batch は、Compute Engine VM でのバッチ処理ワークロードのスケジューリング、キューイング、実行を行えるフルマネージドのサービスです。リソースをプロビジョニングして容量を自動管理し、バッチワークロードを大規模に実行できるようにしてくれます。

Batch を利用すれば、サードパーティのジョブスケジューラの構成、管理、リソースのプロビジョニングとその解除、リソースのリクエストなどの手間から解放されます。 Batch が、バッチジョブのスケジューリング、実行、保存、分析をサポートしてくれるため、ジョブの送信と結果に集中できるようになるでしょう。

なお、Batch の使用に追加料金はかかりません。ジョブの実行に必要な基盤となるリソースのコストのみが課金されます。

リソースベースの確約利用割引の開始

5 つ目は、 Compute Engine のリソースベースの確約利用割引が開始されたことです。

リソースベースの確約利用割引とは、1 年間または 3 年間の利用確約と引き換えに、 Compute Engine の料金を節約できるというものです。これは特に、予測可能なリソースを安定的に利用する際に最適です。具体的には、以下の2つの「リソースベースのコミットメント」を購入することで、割引を受けられます。

  • ハードウェアの割引:vCPU、メモリ、GPU、ローカル SSD、単一テナントノードなどのリソース
  • ソフトウェアのライセンスの割引:該当するプレミアムオペレーティングシステムライセンスのライセンス

確約利用割引を利用すると、マシンタイプや GPU など、ほとんどのリソースに最大 57% の割引が適用されます。メモリ最適化マシンタイプの場合は、最大で 70% の割引となります。

また、確約利用割引を使用すると、そうでない場合の VM の費用傾向を分析し、コンピューティング費用を最適化できます。これにより、確約利用契約で毎月どれだけ節約できたかを確認できます。なお、1 つのプロジェクトの確約利用契約を購入することも、複数の契約を購入し、共有割引を有効にして複数のプロジェクトで共有することも可能です。

まとめ

ここまで、Google Cloud Next’22 で発表されたコンピューティングの最新情報について紹介してきました。
その他にも Next’22 の各種セッションはこちら(Google Cloud Next’22)からご視聴が可能となっておりますので、Google Cloud の最新情報のキャッチアップにご活用いただき、アップデートされた Google Cloud の各種サービスをぜひ試してみてください。
この記事を参考に、Google Cloud の最新技術についての理解を深めていただけると幸いです。

また、Google Cloud の導入をご検討の方、もしよろしければ背景や課題についてヒアリングさせてください。”正直を仕事にする” をモットーに、弊社クラウドエースが少しでもお役に立てるよう、お客様の業務の推進や課題解決の糸口を一緒に見つけていきたいと思っております。
ぜひとも下記お問い合わせ窓口よりお気軽にご連絡いただければと思います。

クラウドエースお問い合わせ・ご相談窓口

Google Cloud に関する無料のセミナーも開催しておりますのでそちらもぜひご参加ください。
セミナー一覧はこちら

参照元
Google Cloud  “Google Cloud Next ’22で発表された全 123 項目”

この記事を共有する

合わせて読みたい