2019 年 1 月 16 日、カリフォルニア州サンタクララ - 本日、Google Cloud は、Google Cloud Platform (GCP) において NVIDIA GPU がこれまでよりも幅広く利用できるようになったことを発表しました。米国およびヨーロッパに加え、日本、ブラジル、インド、およびシンガポールでは、Google Cloud 上で NVIDIA GPU が初めて利用できるようになりました。また、NVIDIA T4 GPU インスタンスのパブリック ベータが、これらを含む世界中の8つの地域で利用可能になっています。
Google Cloud のプロダクト マネージャーであるクリス・クルバン (Chris Kleban) 氏は、次のように話しています。「NVIDIA K80、P4、P100 および V100 の GPU ラインナップに T4 が加わることにより、ハードウェア アクセラレーションによるコンピューティングについてのお客様の選択肢がさらに広がることになります。T4 は、NVIDIA のポートフォリオのなかでも、推論ワークロードを実行するのに最適な GPU です。FP16、INT8 および INT4 に対応する、T4 の高性能な特性により、他のアクセラレーターにはあり得ない、精度と性能の柔軟なトレードオフによって、ハイスケールな推論が可能となります」
NVIDIA T4 GPU は、ハイ パフォーマンス コンピューティングやディープラーニングのトレーニングと推論、機械学習、データ分析、グラフィックスといった、多様なクラウド ワークロードを加速させるために設計されています。NVIDIA T4 は、NVIDIA の新しい Turing アーキテクチャがベースとなっており、多精度 Turing Tensor コアと新しい RT コアを搭載しています。
それぞれの T4 は、16GB の GPU メモリを実装しており、260 TOPS の演算性能を備えています。
Google Cloud Platform では、プリエンプティブ仮想マシン (VM) インスタンスで新しい T4 GPU を1 基当たり 1 時間 0.29 ドルの低価格で使用することができます。「オンデマンドのインスタンスでは、GPU 1 基当たり 1 時間 0.95 ドルからとなっており、最大 30 パーセントの継続使用割引きも用意しています」とクルバン氏は話しています。
Turing アーキテクチャでは、単一の GPU で視覚的にリアルな 3D グラフィックスや複雑なプロフェッショナル モデルを物理的に正確なシャドウ、リフレクションおよびリフラクションでレンダリングする、リアルタイム レイ トレーシングが導入されています。Turing の RT コアは、レイ トレーシングを加速させます。さらに NVIDIA の RTX レイ トレーシング テクノロジのようなシステムおよびインターフェース、ならびにMicrosoft DXR、NVIDIA OptiX™ および Vulkan レイ トレーシングといった API との組み合わせにより、リアルタイムのレイトレーシング エクスペリエンスを実現します。Google も T4 インスタンスでの仮想ワークステーションに対応しており、デザイナーやクリエイターは、あらゆる場所から、あらゆるデバイスで、次世代のレンダリング アプリケーションを利用することができます。
また、Google Cloud AI チームは、詳細なテクノロジ ブログも公開しており、開発者が、T4 GPU と NVIDIA TensorRT プラットフォームを活用するのを支援しています。この投稿では、チームは、Google Cloud Platform 上の NVIDIA T4 GPU で動作する NVIDIA TensorRT 5 を実装した大規模なワークロードで、ディープラーニング推論を実行する方法を記しています。
新しい T4 インスタンス タイプで使えるソフトウェアは、AI、機械学習および HPC のための GPU アクセラレーション ソフトウェアについての NVIDIA のカタログである、NGC からダウンロードするのが理想的です。NGC では、TensorFlow AI フレームワーク、データ サイエンスを加速するためのRAPIDS、前述の NVIDIA TensorRT および NVIDIA OptiX に対応したParaView などの GPU に最適化されたソフトウェアを実装した、すぐに利用可能で多様なコンテナを提供しています。
昨年 11 月、Google Cloud は、プライベート アルファ版で次世代の NVIDIA T4 GPU を提供する、最初のクラウド ベンダーとなりました。このことは、SC 2018 のステージで NVIDIA の創業者/CEO であるジェンスン フアン (Jensen Huang) が明らかにしており、以下の動画でその模様をご覧いただけます。
SC18: NVIDIA CEO Jensen Huang on the New HPC
https://youtu.be/PQbhxfRH2H4?t=5504 (1:31:45 – 1:39:38)
NVIDIA と Google Cloud Platform のエコシステムについては、NVIDIA TensorRT 推論サーバー、Google Kubernetes Engine および Kubeflow を使用して稼働している AI 推論を示した、以下のウェビナーで詳しく説明されます。
Maximizing GPU Utilization for Data Center Inference with NVIDIA TensorRT Inference Server
「NVIDIA TensorRT 推論サーバーにより、データセンター推論向け GPU の利用を最大化する」
2019 年 1 月 24 日、午前 9 時~10時 (太平洋標準時間)
今すぐウェビナーに登録する
https://info.nvidia.com/tensorrt-inference-server-webinar-reg-page
今日から、Google Cloud Platform 上で NVIDIA T4 GPU を利用するには、下記リンクよりお申込み下さい。
https://cloud.google.com/blog/products/ai-machine-learning/running-tensorflow-inference-workloads-at-scale-with-tensorrt-5-and-nvidia-t4-gpus