通信・インターネット

NVIDIA/MediaTek が NVIDIA と提携し、自動車を AI とアクセラレーテッド コンピューティングで変革

常時接続された、ソフトウェア デファインドでインテリジェントな車内ソリューションをエントリー モデルからプレミアム カーまで、すべての車両に提供

コネクティビティとマルチメディアの大手イノベーターである MediaTek は、NVIDIA と協力して、ドライバーと乗客に車内での新しい体験を提供しようとしています。

この提携は本日、COMPUTEX(https://www.nvidia.com/ja-jp/events/computex/) の記者会見で MediaTek CEO のRick Tsai 氏と NVIDIA の創業者/CEO であるジェンスン フアン (Jensen Huang) によって発表されました。

Tsai氏は次のように述べています。「NVIDIA は、AI とコンピューティングの世界的に有名なパイオニアであり、業界のリーダーです。このパートナーシップにおける私たちのコラボレーティブなビジョンは、自動車業界にグローバルなワンストップ ショップを提供し、次世代のインテリジェントで常時接続された車両を設計することです。この NVIDIA との特別なコラボレーションを通じて私たちは、将来のコンピューティング集約型のソフトウェア デファインド車両向けに、真にユニークなプラットフォームを提供できるようになるでしょう」

フアンは以下のように述べています。「AI とアクセラレーテッド コンピューティングが自動車業界全体の変革を促進しています。業界をリードする MediaTek のシステムオンチップと NVIDIA の GPU および AI ソフトウェア テクノロジを組み合わせることで、高級車からエントリー レベルまでのすべての車両セグメントで、新しいユーザー エクスペリエンス、安全性の強化、新しいコネクテッド サービスが可能になるでしょう」

自動車を変革するコラボレーション
 

このパートナーシップは、両社の最高の能力を結集し、次世代のコネクテッド カーに最も魅力的なソリューションを提供します。このパートナーシップは、両社の最高の能力を結集し、次世代のコネクテッド カーに最も魅力的なソリューションを提供します。

現在 NVIDIA は、ノート PC、デスクトップ PC、ワークステーション、サーバー用の GPU に加え、自動車およびロボティクス アプリケーション用のシステムオンチップ (SoC) を提供しています。新しい GPU チップレットにより、NVIDIA は自社の GPU を拡張し、より広範な市場にわたってコンピューティングのリーダーシップを加速することができます。

MediaTek は車載用の SoC を開発し、NVIDIA AI とグラフィックスの IP を特徴とする NVIDIA GPU チップレットを設計アーキテクチャに統合します。チップレットは、超高速かつコヒーレントなチップレット インターコネクト テクノロジで接続されます。

さらに、MediaTek は、これらの新しい車載 SoC 上で NVIDIA DRIVE OS(https://developer.nvidia.com/drive/driveos)、DRIVE IX、CUDA、および TensorRT ソフトウェア テクノロジを実行し、コネクテッド インフォテインメントと車室内の安全機能を実現します。このパートナーシップにより、自動車メーカーには NVIDIA DRIVE ソフトウェア プラットフォーム上でより多くの車載インフォテイメントのオプションが提供されます。
 

MediaTek は、NVIDIA GPU チップレットを統合した車載用 SoC を開発します。MediaTek は、NVIDIA GPU チップレットを統合した車載用 SoC を開発します。

写真提供:MediaTek

AI、クラウド、グラフィックス テクノロジ、ソフトウェア エコシステムにおける NVIDIA の主要な専門知識を活用し、NVIDIA 自動運転支援システムと組み合わせることで、MediaTek は Dimensity Auto プラットフォームの機能を強化できます。

豊かなイノベーションの遺産
この提携により、MediaTek の自動車分野の顧客は、最先端の NVIDIA RTX グラフィックスと高度な AI 機能に加え、NVIDIA DRIVE ソフトウェアによって実現される安全性とセキュリティ機能をあらゆるタイプの車両に提供できるようになります。Gartner によると、車両内で使用されるインフォテインメントおよび計器クラスター向けの SoC は 2023 年に 120 億ドルに達すると予測されています*。

MediaTek の Dimensity Auto プラットフォームは、モバイル コンピューティング、高速接続、エンターテインメント、および広範な Android エコシステムにおける数十年の経験を活用しています。このプラットフォームには、スマート マルチディスプレイ、ハイダイナミック レンジ カメラ、オーディオ処理をサポートする Dimensity Auto Cockpit が含まれており、ドライバーと乗客はコックピットおよびインフォテインメント システムとシームレスに対話できます。

10 年以上にわたり、自動車メーカーは、インフォテインメント システム、グラフィカル ユーザー インターフェイス、タッチスクリーンに NVIDIA のテクノロジを活用することで、車両のコックピットを進化させてきました。

NVIDIA GPU チップレットを自社の自動車向けの製品に統合することで、MediaTek は、Dimensity Auto プラットフォームのパフォーマンス機能を強化し、市場で最も先進的な車内エクスペリエンスを提供することを目指しています。このプラットフォームには、ドライバーが高速テレマティクスと Wi-Fi ネットワークにワイヤレスで接続された状態を維持できる機能である Auto Connect も含まれています。

MediaTek は本日の発表により、自社の自動車製品の水準をさらに引き上げることを目指しています。これは車内での安全かつ安心で楽しい体験を提供しながら、進化する顧客のニーズと需要に応える、インテリジェントでコネクテッドな車内ソリューションを提供することです。

* Gartner, Forecast Analysis: Automotive Semiconductors, Worldwide, 2021-2031; Table 1 – Automotive Semiconductor Forecast by Application (Billions of U.S. Dollars), January 18, 2023.

Gartner の調査に基づき、NVIDIA が算出。Gartnerは、Gartner Inc. または関連会社の米国およびその他の国の登録商標およびサービスマークであり、同社の許可に基づいて使用しています。無断複写・転載を禁じます。

 

 

注目記事:MVNOとは?初心者にもわかりやすく解説 「本当に安くなるの?」

メディアテックジャパン/MediaTek、NVIDIAとの提携に基づく自動車業界向けの広範な製品ロードマップを発表

NVIDIAの最新GPUチップレットの統合により、MediaTek Dimensity Autoプラットフォームが次世代のスマートキャビンに向けた世界最先端のAI・接続性・計算能力を提供

台北 – 2023年5月29日 – MediaTekは本日、次世代のソフトウェア・デファインド・ビークルに向けた広範な車室向けAIキャビンソリューションを提供するためにNVIDIAと提携したことを発表しました。この提携は、両社のもつ自動車向け製品ポートフォリオの強みを組み合わせ、最先端のコネクテッドカーに向け他に類を見ない最高のソリューションを提供します。

MediaTekの副会長兼CEOであるRick Tsaiは次のように述べています。「NVIDIAは、AIとコンピューティングの世界的なパイオニアであり、業界のリーダーです。今回の提携で両社が描いているビジョンは、全世界の自動車業界に、次世代のインテリジェントかつ常にネットと接続されている自動車が必要とする製品をワンストップで提供することです。私たちとNVIDIAの特別なコラボレーションを通じて、高度な計算能力が要求されるソフトウェア・デファインド・ビークルの将来に向けて、唯一無二のプラットフォームを提供します。」

NVIDIAの創業者兼CEOであるJensen Huangは次のように述べています。「AIと、NVIDIAのアクセラレーテッド コンピューティングは、自動車業界全体の変革を加速します。MediaTekの業界をリードするSoCと、NVIDIAのGPUおよびAIソフトウェア技術の組み合わせにより、高級車から大衆車まで、自動車市場のすべてのセグメントにおいて、新たなユーザーエクスペリエンス、強化された安全性、新たなコネクテッドサービスを実現します。」

この協業によりMediaTekは、NVIDIAのAIおよびグラフィックIPを搭載する新しいNVIDIA GPUチップレットを搭載した自動車向けのSoCを開発します。チップレット同士の接続には、超高速かつ密な相互接続技術が採用されています。

MediaTekのスマートキャビンソリューションは、NVIDIA DRIVE OS、DRIVE IX、CUDA、TensorRTソフトウェア技術を採用し、最先端のグラフィックス、AI、安全性、セキュリティ性を備えたAIキャビンおよびコックピット実現に必要となるあらゆる機能を提供します。

MediaTekはNVIDIAとの協力により、業界の高まるニーズと需要を上回るソリューションを提供します。これは両社にとって大きなビジネスの機会をもたらします。Gartner®によると、自動車の中で使用されるインフォテインメントおよびインストルメントクラスタ用SoCの市場規模は、2023年に120億ドルに達するとしています*。

NVIDIAのAI、クラウド、グラフィックス、ソフトウェアに関する中核技術と、さらに同社のADASソリューションとも組み合わせることで、MediaTekはモバイルコンピューティング、高速接続、エンターテインメント、広範なAndroidエコシステムに関する専門技術を活用して全てのDimensity Autoプラットフォームの機能を強化し、車内での体験をあらゆる面で従来に比べてさらにスマートにします。

*出典: Gartner, Forecast Analysis: Automotive Semiconductors, Worldwide, 2021-2031, January 18, 2023; Table 1 – Automotive Semiconductor Forecast by Application (Billions of U.S. Dollars)

 Gartnerの調査レポートをもとにNVIDIAが算出。GARTNERは、Gartner社またはその関連会社の米国およびその他の国における登録商標または商標であり、この文書中での使用は同社の許可を得ています。All Rights Reserved.

MediaTek Inc.について

MediaTek Inc.(台湾証券取引所:2454)は、その製品が年間約20億台のコネクテッドデバイスに採用されているグローバルファブレス半導体メーカーです。モバイル、ホームエンターテイメント、コネクティビティ、およびIoT製品向けの革新的なシステムオンチップ(SoC)の開発で市場をリードしています。イノベーションに対する積極的な取り組みにより、電力効率に優れたモバイルテクノロジーや自動車用ソリューション、高度なマルチメディアソリューションを含む主要テクノロジー分野で市場を牽引する地位を確立しています。それらの技術はスマートフォン、タブレット、デジタルテレビ、5G、音声アシスタントデバイス(VAD)、ウェアラブル端末など幅広い製品に活用されています。MediaTek は、スマートテクノロジーを通じて、人々が視野を広げ、容易に目標を達成できるようサポートを行っていきます。世界のブランド企業と協業して、優れたテクノロジーを誰もが利用できるようにすることを、企業活動の原動力としています。

詳しくは弊社HPをご覧ください。https://www.mediatek.jp/

 

 

注目記事:MVNOとは?初心者にもわかりやすく解説 「本当に安くなるの?」

 ACCESS/IP Infusion、2023年第1四半期において記録的な成長を達成

- データセンター、アグリゲーションルーター、セルサイトルーター製品により、「OcNOS®」の販売が前年同期比で3倍以上に伸長 -

IP Infusion(本社:米国カリフォルニア州、最高経営責任者:緒方 淳)は、2023年第1四半期(※)の売上が記録的な成長を遂げ、四半期単体として過去最高となったことを発表いたします。同四半期における「OcNOS®」の販売(複数年契約を含む受注額)は、前年同期比の3倍以上に達しました。これは、「OcNOS」のディスアグリゲーション(ハードウェアとソフトウェアの機能分離)型データセンター、アグリゲーションルーター、セルサイトルーター製品に対する堅調な需要によるものです。

さらに、2023年第1四半期には、23社の新規顧客が、業界初となるフル機能を搭載し、モジュール設計で拡張性に優れたWhite Box(ホワイトボックス)オープンネットワークソリューション向けネットワークオペレーティングシステム(NOS)である「OcNOS」を採用しました。本四半期に「OcNOS」の採用を発表した新規顧客は、Netplus Broadband、MetaLINK Techologies、Amplex Internet、BroadStar、Multinet、Pine Networks等です。また、IP Infusionは、同四半期に、日本電信電話株式会社(NTT)の IOWN 構想を実現する White Box向け新NOSである「Beluganos(ベルガノス)」の開発技術支援を行い、グローバル市場への販売およびサポートを開始することを発表しました。

IP Infusion 最高経営責任者(CEO) 緒方 淳は、
「業界で高い評価を受けている『OcNOS』製品への旺盛な需要が寄与し、2023年第1四半期もこれまでにない急成長を続けて達成できたことを誇りに思います。この堅調な業績の継続的な伸びは、世界中で拡大を続ける当社顧客基盤とパートナー企業に向けて、市場の期待を上回る最も先進的なディスアグリゲーション型ソリューションを提供するという当社コミットメントが反映されたものです」と述べています。

※   IP Infusion会計年度の2023年第1四半期は、2023年1月~3月となります。

■IP Infusionについて

IP Infusionは、キャリア、サービスプロバイダー、データセンター事業者向けオープンネットワークソフトウェアおよびソリューションにおける世界的なプロバイダーです。IP Infusionのソリューションの累計導入実績は500社を超え、運用実績は数千件に及び、世界をリードしています。IP Infusionのソリューションにより、ネットワーク事業者はネットワークをディスアグリゲーション(ハードウェアとソフトウェアの機能分離)することで、イノベーションの加速、運用の合理化、総所有コスト(TCO)の削減が可能になります。また、ネットワークOEMは、ネットワークデバイスを分離して、市場投入までの時間を短縮し、包括的なサービスを提供し、キャリアグレードの堅牢性を実現することが可能となります。IP Infusionは、米国カリフォルニア州サンタクララを本拠とし、株式会社ACCESSの100%出資子会社として独立して運営されています。

https://www.ipinfusion.com/

■株式会社ACCESSについて

ACCESS(東証プライム:4813)は、1984年の設立以来、独立系ソフトウェア企業として、世界中の通信、放送、自動車、家電、出版、エネルギーインフラ業界向けに、モバイル並びにネットワークソフトウェア技術を核とした先進のITソリューションを提供しています。累計搭載実績15億台を超えるモバイルソフトウェアおよび500社を超える企業への豊富な採用実績を誇るネットワークソフトウェアにおける仮想化技術の開発力とノウハウを活かし、現在、組み込みとクラウド技術を融合したDX/IoTソリューションの開発・事業化に注力しています。アジア、米国、ヨーロッパ地域の子会社を拠点に国際展開も推進しています。

https://www.access-company.com/

※ACCESS、ACCESSロゴは、日本国、米国、およびその他の国における株式会社ACCESSの登録商標または商標です。

※IP Infusion、IP Infusionロゴ、OcNOSは、IP Infusion Inc.の米国ならびにその他の国における商標または登録商標です。

※その他、文中に記載されている会社名および商品名は、各社の登録商標または商標です。

 

 

注目記事:MVNOとは?初心者にもわかりやすく解説 「本当に安くなるの?」

NVIDIA/世界のデータセンターの多様なアクセラレーテッド コンピューティングの要求に応え、 NVIDIA MGX がシステム メーカーにモジュラー アーキテクチャを提供

QCT と Supermicro が、AI、HPC、Omniverse のワークロードを高速化する
100 以上のシステム構成を可能にするサーバー仕様を初めて採用

台湾、台北 – COMPUTEX – 2023 年 5 月 29 日 – NVIDIA は本日、世界のデータセンターの多様なアクセラレーテッド コンピューティングのニーズを満たすために、NVIDIA MGX™(https://www.nvidia.com/en-us/data-center/products/mgx/) サーバーの仕様を発表しました。これにより、システム メーカーには幅広い AI、ハイ パフォーマンス コンピューティング、Omniverse のアプリケーションに適した 100 以上のサーバー バリエーションを迅速かつコスト効率よく構築できるモジュラー リファレンス アーキテクチャが提供されます。

ASRock Rack、ASUS、GIGABYTE、Pegatron、QCT、Supermicro は MGX を採用し、開発コストを最大 4 分の 3 に削減し、開発期間を 3 分の 2 となる 6 か月に短縮することができます。

NVIDIA の GPU 製品担当バイス プレジデント、カウストゥブ サンガニ (Kaustubh Sanghani) は次のように述べています。「企業は、特定のビジネスやアプリケーションのニーズを満たすデータセンターを構築する際に、より多くのアクセラレーテッドコンピューティング オプションを求めています。私たちは、組織によるエンタープライズ AI の立ち上げを支援し、同時に時間とコストを大幅に削減するために MGX を開発しました」

MGX を使用する場合、メーカーはサーバー筐体でのアクセラレーテッド コンピューティングに最適化された基本的なシステム アーキテクチャから始めて、GPU、DPU、CPU を選択します。設計のバリエーションにより、HPC、データ サイエンス、大規模言語モデル、エッジ コンピューティング、グラフィックスとビデオ、エンタープライズ AI、設計とシミュレーションなどの固有のワークロードに対処できます。AI のトレーニングや 5G などの複数のタスクを 1 台のマシンで処理でき、将来のハードウェア世代へのアップグレードもスムーズに行うことができます。また、MGX は、クラウドやエンタープライズ データセンターにも簡単に統合することができます。

業界リーダーとのコラボレーション
QCT と Supermicro が、MGX デザインを 8 月にいち早く市場に投入する予定です。本日発表された Supermicro の ARS-221GL-NR システムには NVIDIA Grace™ CPU Superchip が搭載され、同じく本日発表された QCT の S74G-2U システムには NVIDIA GH200 Grace Hopper Superchip(https://www.nvidia.com/en-us/data-center/grace-hopper-superchip/) が採用されます。

さらに、ソフトバンク株式会社は日本全国で複数のハイパー スケール データセンターを展開し、このプラットフォームを活用して、生成AIと5Gアプリケーション間でGPUリソースを動的に割り当てる予定です。

ソフトバンク株式会社代表取締役 社長執行役員 兼 CEOの宮川 潤一氏は次のように述べています。「生成AIがビジネスや消費者のライフスタイルに浸透する中、適切なコストで最適なインフラを構築することは、通信事業者の最大の課題の1つです。NVIDIA MGXはこの課題を解決し、リアルタイムのワークロードの要件に応じて、AI、5Gなどをマルチに活用することができると期待しています。」

多様なニーズに対応したさまざまなデザイン
データセンターは、コストを抑えながら、コンピューティング能力を高め、気候変動と戦うために炭素排出量を削減するという両方の要件を満たす必要がますます高まっています。

NVIDIA のアクセラレーテッド コンピューティング サーバーは、長年にわたって非常に優れたコンピューティング パフォーマンスとエネルギー効率を提供してきました。MGX のモジュラー設計により、システム メーカーは各顧客固有の予算、電力供給、熱設計、機械的要件をより効果的に満たせるようになります。

複数のフォーム ファクターにより最大限の柔軟性を実現
MGX はさまざまなフォーム ファクターで動作し、次のような現在および将来の世代の NVIDIA ハードウェアと互換性があります。

● 筐体: 1U、2U、4U (空冷または液冷)
● GPU: 最新の H100、L40、L4 を含む完全な NVIDIA GPU ポートフォリオ
● CPU: NVIDIA Grace CPU Superchip、GH200 Grace Hopper Superchip、x86 CPU
● ネットワーク: NVIDIA BlueField®-3 DPU、ConnectX®-7 ネットワーク アダプター

MGX は、NVIDIA 製品との柔軟な多世代の互換性を提供するという点で NVIDIA HGX™ とは異なり、システム ビルダーが既存の設計を再利用し、高価な再設計を行わずに、次世代製品を簡単に採用することができます。一方、HGX は、究極の AI および HPC システムを構築するために、スケーリングに適合した NVLink® 接続のマルチ GPU ベースボードを採用しています。

さらなるアクセラレーションを実現するソフトウェア
ハードウェアに加えて、MGX は NVIDIA の完全なソフトウェア スタックによってサポートされており、これにより開発者や企業は AI、HPC、その他のアプリケーションを構築および高速化できます。これには、NVIDIA AI プラットフォームのソフトウェア レイヤーである NVIDIA AI Enterprise(https://www.nvidia.com/en-us/data-center/products/ai-enterprise/) が含まれます。これは、エンタープライズ AI の開発と展開を完全にサポートするために AI とデータ サイエンスを加速する 100 を超えるフレームワーク、事前トレーニング済みモデル、開発ツールを備えています。

MGX は、Open Compute Project および Electronic Industries Alliance サーバー ラックと互換性があり、エンタープライズおよびクラウドのデータセンターに迅速に統合できます。

NVIDIA の創業者/CEO であるジェンスン フアン (Jensen Huang)が COMPUTEX 2023(https://www.nvidia.com/ja-jp/events/computex/) の基調講演で MGX サーバーの仕様について語る様子をご視聴ください。

NVIDIA について
1993年の創業以来、NVIDIA (https://www.nvidia.com/ja-jp/)(NASDAQ: NVDA) はアクセラレーテッド コンピューティングのパイオニアです。同社が 1999 年に発明した GPU は、PC ゲーム市場の成長を促進し、コンピューター グラフィックスを再定義して、現代の AI の時代に火をつけながら、産業用メタバースの創造を後押ししています。NVIDIA は現在、業界を再形成しているデータセンター規模の製品を提供するフルスタック コンピューティング企業です。詳細は、こちらのリンクから:https://nvidianews.nvidia.com/.

 

 

注目記事:MVNOとは?初心者にもわかりやすく解説 「本当に安くなるの?」

NVIDIA/世界の大手エレクトロニクス メーカーがNVIDIA生成AI とOmniverseを活用し、最先端の工場をデジタル化

Foxconn Industrial Internet、Innodisk、Pegatron、Quanta、WistronがNVIDIA Omniverse、Isaac Sim、Metropolis を使用してバーチャル ファクトリーを構築、ロボティクスのシミュレーション、検査の自動化を推進

台湾、台北 – COMPUTEX – 2023 年 5 月 29 日 – NVIDIA は本日、世界中のエレクトロニクス メーカーが、生成 AI、3D コラボレーション、シミュレーション、自律動作マシン向けの NVIDIA テクノロジを組み合わせた新しい包括的なリファレンス ワークフローを導入し、産業のデジタル化を推進していることを発表しました。

広範なパートナー ネットワークによってサポートされたこのワークフローは、メーカーが一連の NVIDIA テクノロジを使用して工場を設計、構築、運用、最適化するのに役立ちます。 これらのテクノロジには、コンピューター支援設計アプリのほか、生成 AI 用の API および最先端のフレームワークを接続可能なNVIDIA Omniverse™(https://www.nvidia.com/ja-jp/omniverse/) 、ロボットのシミュレーションと検証のための NVIDIA Isaac Sim ™(https://developer.nvidia.com/isaac-sim) アプリケーション、自動光学検査も可能になったNVIDIA Metropolis(https://www.nvidia.com/ja-jp/autonomous-machines/intelligent-video-analytics-platform/) ビジョン AI フレームワークが含まれます。

COMPUTEX の基調講演で、NVIDIA の創業者/CEO であるジェンスン フアン (Jensen Huang) は、エレクトロニクス メーカーにとって業界初となる、完全にデジタル化されたスマート ファクトリーのデモを披露しました。

「世界の主要な産業は物理的なものを製造していますが、それを最初にデジタルで構築することで、莫大なコストを節約できます」とフアンは述べました。 「エレクトロニクス メーカーが製造と検査のワークフローを簡単にデジタル化できるようNVIDIA が支援することで、品質と安全性が大幅に向上すると同時に、コストのかかる予期せぬ事態や遅延が軽減されるのです」

世界有数のエレクトロニクス メーカーが NVIDIA のテクノロジでデジタル化を推進
新しいリファレンス ワークフローは、Foxconn Industrial Internet、Innodisk、Pegatron、Quanta、Wistron が活用しており、各社とも生産コストを削減しながら、ワークセルと組立ラインの運用最適化に取り組んでいます。

世界最大のテクノロジ メーカーのサービス部門である Foxconn Industrial Internet は、NVIDIA Metropolis エコシステム パートナーと協力して、回路基板の品質保証検査ポイントの大部分を自動化しています。

「AI における NVIDIA の強みとアプリケーション パートナーの強力なエコシステムは、Foxconn Industrial Internet に大幅な運用効率の向上を可能にします」とFoxconn Industrial Internet の CTO、Tai-Yu Chou氏は述べています。「工場向けの NVIDIA Metropolis とロボティクス向けの Isaac Sim の組み合わせにより、産業オートメーションにおける我々の目標をこれまで想像していたよりも早く実現できるようになりました。」

Innodisk は、NVIDIA Metropolis を導入して生産ラインの光学検査プロセスを自動化し、コストを節約し、生産効率を向上させています。

大手エレクトロニクス メーカーおよびサービス プロバイダーであるPegatronは、リファレンス ワークフローを使用して、シミュレーション、ロボティクス、および自動生産検査によって回路基板工場をデジタル化しています。

Pegatronのソフトウェア研究開発部門担当 アソシエイト バイス プレジデントであるAndrew Hsiao 氏は次のように述べています。「NVIDIA Omniverse、Isaac Sim、Metropolis のおかげで、AI トレーニングを実行し、工場のワークフローを強化し、物理世界でアイデアを決定する前に仮想世界で多数のシミュレーションを実行できるようになります。工場全体をデジタル化することで、ロボティクスとオートメーションのパイプラインをエンドツーエンドでシミュレートできるようになり、シミュレートされた環境で検証することができるため、時間を節約し、コストを大幅に削減できます」

ノートPCやその他の電子ハードウェアの大手メーカーである Quanta は、製造された製品の品質を検査するために子会社である Techman Robotの AI ロボットを使用しています。 Techman は、Isaac Sim を活用して最先端の協働ロボットをシミュレーション、テスト、最適化すると同時に、NVIDIA AI と GPU をロボット自体の推論に使用しています。

情報通信製品の世界最大のサプライヤーの 1 社である Wistron は、NVIDIA Omniverse を活用して、Autodesk AutoCAD、Autodesk Revit、FlexSim からの入力を使用して自動受付ラインと運用ビルのデジタル ツインを構築しています。 Wistron はまた、NVIDIA Metropolis を活用することで、AI 対応のコンピューター ビジョンで回路基板の光学検査の一部を自動化しています。

産業エコシステムが NVIDIA テクノロジをフル活用
NVIDIA は、複数の主要な製造ツールおよびサービス プロバイダーと協力して、あらゆるワークフロー レベルでフルスタックの単一アーキテクチャを構築しています。

システム レベルでは、NVIDIA IGX Orin™(https://docs.nvidia.com/igx-orin/index.html) が、産業グレードのハードウェアとエンタープライズ レベルのソフトウェアおよびサポートを組み合わせた、オールインワンのエッジ AI プラットフォームを提供します。 IGX は、エッジ コンピューティング特有の耐久性と低消費電力という要件を満たしながら、AI アプリケーションの開発と実行に必要な高いパフォーマンスを提供します。

メーカー パートナーの ADLINK、Advantech、Aetina、Dedicated Computing、Onyx、Prodrive TechnologiesおよびYuan は、産業および医療市場にサービスを提供する IGX 搭載システムを開発しています。 これらのシステムにより、物理的な生産の過程でデジタル化の利点を実現できます。

プラットフォーム レベルでは、Omniverse が世界の主要な 3D、シミュレーション、生成 AI プロバイダーをつなげます。 Omniverseのオープンな開発プラットフォームを使用することで、チームはAdobe、Autodesk、Siemensなどから提供されている人気のアプリケーション間で相互運用性を構築することができます。

COMPUTEX 基調講演では、3D ワークフローや Python アプリケーション開発を簡素化するため、ChatGPT や Blender GPT などのさまざまな AI アシスタントに接続された Omniverse のデモが紹介されました。Platform-as-a-ServiceとしてMicrosoft Azure上で利用可能になった NVIDIA Omniverse Cloudにより、企業の顧客はAzureクラウド サービスが提供するスケールとセキュリティの恩恵を受けながら、Omniverseソフトウェア アプリケーションのフルスタック スイートとNVIDIA OVXインフラにアクセスできます。

また、アプリケーション レベルでは、Isaac Sim を使用することで、企業は AI ベースのロボットを構築し、最適に展開できます。 例えば、メーカーは産業オートメーション企業である READY Roboticsと協力して、現実世界に展開する前にシミュレーションでロボットのタスクをプログラムできます。また、SoftServe や FS Studioなどのシミュレーション テクノロジ パートナーは、デジタル ツイン ベースのシミュレーションを構築することで、顧客の開発タイムラインを短縮します。

さらにアプリケーション レベルでは、NVIDIA Metropolis からファクトリー オートメーション AI ワークフローのコレクションが提供されており、これにより産業用ソリューション プロバイダーやメーカーは、コストを節約し生産スループットを向上させる、カスタマイズ可能な品質管理ソリューションを開発、展開、管理できます。 ADLINK、Aetina、Deloitte、Quantiphi、Siemens などの大規模なパートナー エコシステムが、これらのソリューションの市場投入を支援しています。

Omniverse、Isaac Sim、Metropolis の詳細については、COMPUTEX(https://www.nvidia.com/ja-jp/events/computex/) でご覧ください。

NVIDIA について
1993年の創業以来、NVIDIA(NASDAQ:NVDA)はアクセラレーテッド コンピューティングのパイオニアです。同社が 1999 年に発明した GPU は、PC ゲーム市場の成長を促進し、コンピューター グラフィックスを再定義して、現代の AI の時代に火をつけながら、産業用メタバースの創造を後押ししています。NVIDIA は現在、業界を再形成しているデータセンター規模の製品を提供するフルスタック コンピューティング企業です。詳細については、https://nvidianews.nvidia.com/ をご参照ください。

 

 

注目記事:MVNOとは?初心者にもわかりやすく解説 「本当に安くなるの?」

NVIDIA/NVIDIA ACE for Games が生成 AI で仮想キャラクターに命を吹き込む

カスタム モデル ファウンドリが AI モデルを作成し、クラウドや PC で実行

台湾、台北 – COMPUTEX – 2023 年 5 月 29 日 – NVIDIA は本日、AI を活用した自然言語によるやりとりを通じて、ノンプレイアブル キャラクター (NPC) に知性をもたらし、ゲームを変革する、カスタム AI モデル ファウンドリ サービスである、NVIDIA Avatar Cloud Engine (ACE)(https://developer.nvidia.com/omniverse/ace) for Games を発表しました。

ミドルウェア、ツール、ゲームの開発者は、ACE for Games を使用して、カスタマイズされた音声、対話、アニメーションの AI モデルを構築し、ソフトウェアやゲームに展開できます。

NVIDIA の開発およびパフォーマンス テクノロジ バイス プレジデント、ジョン スピッツァー (John Spitzer) は次のように述べています。「生成 AI は、プレイヤーがゲーム キャラクターと行えるインタラクティブ性に革命をもたらし、ゲームへの没入感を劇的に高める可能性を秘めています。NVIDIA は、AI に関する専門知識とゲーム開発者との数十年にわたる協業の経験値に基づいて、ゲームにおける生成 AI の活用を先導し取り組んでいます」

ゲームにおける生成 AI の先駆者
NVIDIA Omniverse™ 上に構築された ACE for Games は、音声、対話、キャラクター アニメーションに最適化された AI 基盤モデルを提供します。これには次のようなものが含まれています。

● NVIDIA NeMo™(https://developer.nvidia.com/nemo) — 独自のデータを使用した言語モデルの構築、カスタマイズ、展開を行います。大規模言語モデルは、知識やキャラクターのバックストーリーを使用してカスタマイズでき、NeMo Guardrails(https://blogs.nvidia.com/blog/2023/04/25/ai-chatbot-guardrails-nemo/) を介して非生産的な会話または危険な会話から保護します。
● NVIDIA Riva(https://developer.nvidia.com/riva) — 自動音声認識およびテキスト読み上げにより、ライブで音声会話を可能にします。
● NVIDIA Omniverse Audio2Face™(https://www.nvidia.com/en-us/omniverse/apps/audio2face/)— あらゆる音声トラックに調和するゲーム キャラクターの表情豊かなフェイシャル アニメーションを即座に作成します。Audio2Face は Unreal Engine 5 用の Omniverseコネクタを備えているため、開発者はフェイシャル アニメーションを MetaHuman キャラクターに直接追加できます。

開発者は、NVIDIA ACE for Games ソリューション全体を統合することも、必要なコンポーネントのみを使用することもできます。

『Kairos』 がゲームの未来を垣間見せる
NVIDIA は、NVIDIA Inception(https://www.nvidia.com/en-us/startups/) のスタートアップである Convai(https://www.convai.com/) と協力して、開発者がまもなく NVIDIA ACE for Games を使用して NPC を構築できるようになる方法を披露しました。Convai は、仮想ゲーム世界向けの最先端の対話型 AI の開発に注力しており、ACE モジュールをエンドツーエンドのリアルタイム アバター プラットフォームに統合しました。

『Kairos』(https://www.nvidia.com/en-us/geforce/news/nvidia-kairos-generative-ai-npcs/)と呼ばれるデモでは、プレイヤーはラーメン店の店主であるジンと対話します。ジンは NPC ですが、自然言語のクエリに対して、すべて生成 AI の助けを借りて、現実的そして物語のバックストーリーに合わせて応答します。最新のレイトレーシング機能と NVIDIA DLSS(https://www.nvidia.com/en-us/geforce/technologies/dlss/) を使用して Unreal Engine 5 でレンダリングされたデモをご覧ください(https://www.youtube.com/watch?v=sWNTGghEV7w&feature=youtu.be)。

Convai の創業者/CEO の Purnendu Mukherjee 氏は次のように述べています。「NVIDIA ACE for Games を使用することで、Convai のツールは、ほぼすべての開発者が AI 非プレイアブル キャラクターをコスト効率の高い方法で利用できるようにするために必要な遅延と品質を実現できます」

NVIDIA ACE for Games のモデルをローカルまたはクラウドに展開
NVIDIA ACE for Games を可能にするニューラル ネットワークは、さまざまなサイズ、パフォーマンス、品質のトレードオフを伴うさまざまな機能に合わせて最適化されています。ACE for Games ファウンドリ サービスは、開発者がゲーム用にモデルを微調整し、NVIDIA DGX™ Cloud(https://www.nvidia.com/en-us/data-center/dgx-cloud/)、GeForce RTX™ PC、またはオンプレミス経由で展開してリアルタイムで推論を行うのに役立ちます。

モデルは、ゲームにおける没入感のある応答性の高いインタラクションの重要な要件である遅延に対して最適化されています。

ゲーム体験を変革する生成 AI
ゲーム開発者やスタートアップ企業は、すでに NVIDIA の生成 AI テクノロジをワークフローに使用しています。

● ヨーロッパ有数のゲーム開発会社の 1 つである GSC Game World は、今後発売されるゲームである 『S.T.A.L.K.E.R 2 Heart of Chernobyl』 に Audio2Face を採用しています。
● インディー ゲーム開発者の Fallen Leaf は、火星を舞台とする三人称視点の SF スリラーである 『Fort Solis』 のキャラクターのフェイシャル アニメーションに Audio2Face を使用しています。
● AI を通じて仮想キャラクターを実現する企業である Charisma.ai は、Audio2Face を活用して会話エンジンのアニメーションを強化しています。

NVIDIA ACE を使用した NVIDIA Omniverse(https://developer.nvidia.com/omniverse) 上での構築やその他のテクノロジーの進歩についての詳細は、COMPUTEX(https://www.nvidia.com/ja-jp/events/computex/) にてご確認ください。

NVIDIA について
1993年の創業以来、NVIDIA(https://www.nvidia.com/ja-jp/) (NASDAQ: NVDA) はアクセラレーテッド コンピューティングのパイオニアです。同社が 1999 年に発明した GPU は、PC ゲーム市場の成長を促進し、コンピューター グラフィックスを再定義して、現代の AI の時代に火をつけながら、産業用メタバースの創造を後押ししています。NVIDIA は現在、業界を再形成しているデータセンター規模の製品を提供するフルスタック コンピューティング企業です。詳細は、こちらのリンクから:https://nvidianews.nvidia.com/.

 

 

 

注目記事:MVNOとは?初心者にもわかりやすく解説 「本当に安くなるの?」

NVIDIA/NVIDIA、DGX GH200 AI スーパーコンピューターを発表

256 基の Grace Hopper Superchip を巨大な 1 エクサフロップの 144TB GPU として接続した新しいクラスの AI スーパーコンピューターが、生成 AI、レコメンダー システム、データ処理を強化する巨大モデルに対応

台湾、台北 – COMPUTEX – 2023 年 5 月 29 日 – NVIDIA は本日、新しいクラスの大規模メモリ AI スーパーコンピューターを発表しました。NVIDIA® GH200 Grace Hopper Superchipと NVIDIA NVLink® Switch System を搭載したこのNVIDIA DGX ™ スーパーコンピューターは、生成 AI 言語アプリケーション、レコメンダー システム、データ分析ワークロード用の巨大な次世代モデルの開発を可能にします。

NVIDIA DGX GH200(https://www.nvidia.com/en-us/data-center/dgx-gh200/) の大規模な共有メモリ空間は、NVLink インターコネクト テクノロジと NVLink Switch System を使用して 256 基の GH200 Superchip を結合し、単一の GPU として実行可能にします。これにより、1 エクサフロップのパフォーマンスと 144 テラバイトの共有メモリが提供されます。これは、2020年に発表された前世代の NVIDIA DGX A100 システムのほぼ 500 倍のメモリ容量です。

NVIDIA の創業者/CEO であるジェンスン フアン (Jensen Huang) は次のように述べています。「生成 AI、大規模言語モデル、レコメンダー システムは現代の経済におけるデジタル エンジンです。DGX GH200 AI スーパーコンピューターは、NVIDIA の最先端のアクセラレーテッド コンピューティングとネットワーキング テクノロジを統合して、AI のフロンティアを拡大します」

NVIDIA NVLink テクノロジにより AI が大規模に拡張
GH200 Superchip は、NVIDIA NVLink-C2C チップ インターコネクトを使用して、Arm ベースの NVIDIA Grace™ CPU と NVIDIA H100 TensorコアGPU を同じパッケージ内で組み合わせることで、従来の CPU とGPU間の PCIe 接続の必要性を排除します。これにより、最新の PCIe テクノロジと比較して GPU と CPU 間の帯域幅が 7 倍に増加し、インターコネクトの消費電力が 5 倍以上削減され、DGX GH200 スーパーコンピューターのための 600 GB のHopperアーキテクチャ のGPU ビルディング ブロックを提供します。

DGX GH200 は、Grace Hopper Superchip と NVIDIA NVLink Switch System を組み合わせた初のスーパーコンピューターです。これは、DGX GH200 システム内のすべての GPU を 1 基のGPUとして連携できるようにする新しいインターコネクトです。前世代のシステムでは、パフォーマンスを損なうことなく 1 基の GPU として利用するには、8 基の GPU を NVLink で組み合わせることしかできませんでした。

DGX GH200 アーキテクチャは、前世代の 48倍のNVLinkの帯域幅を提供し、単一の GPU をプログラミングする簡単さで大規模な AI スーパーコンピューターのパワーを実現します。

AI パイオニアのための新しいリサーチ ツール
Google Cloud、Meta、そしてMicrosoft は、生成 AI ワークロードの機能を探索するために DGX GH200 を活用予定の最初の企業の 1 つです。NVIDIA はまた、DGX GH200 のデザインをクラウド サービス プロバイダーや他のハイパースケーラーに設計図として提供し、自社のインフラストラクチャに合わせてさらにカスタマイズできるようにする予定です。

「高度な生成モデルを構築するには、AI インフラストラクチャへの革新的なアプローチが必要です」と語るのは、Google Cloud のコンピューティング担当バイス プレジデントの Mark Lohmeyer 氏です。「Grace Hopper Superchip における NVLink の新たなスケールと共有メモリは、大規模 AI の主要なボトルネックに対処するものであり、Google Cloud と当社の生成 AI イニシアチブにてその機能を活用することを楽しみにしています」

Meta のインフラストラクチャ、AI システムおよびアクセラレーテッド プラットフォーム担当バイス プレジデント、Alexis Björlin 氏は次のように述べています。「AI モデルが大きくなるにつれて、増大する需要に合わせて拡張できる強力なインフラストラクチャが必要になります。NVIDIA の Grace Hopper のデザインによって、研究者が最大規模の課題を解決するための新しいアプローチを探索できるようになるでしょう」

Microsoft の Azure Infrastructure 担当コーポレート バイス プレジデントである Girish Bablani 氏は、以下のように述べています。「大規模な AI モデルのトレーニングは、従来、リソースと時間がかかる作業でした。テラバイトサイズのデータセットを扱う潜在力を秘めた DGX GH200 によって、開発者はより大きなスケールで高度な研究をより早く進めることができるようになるでしょう」

研究開発を促進する新しい NVIDIA Helios スーパーコンピューター
NVIDIA は、研究者や開発チームの作業を強化するために、独自の DGX GH200 ベースの AI スーパーコンピューターを構築しています。NVIDIA Helios と名付けられたこのスーパーコンピューターは、4 つの DGX GH200 システムを搭載します。

Helios スーパーコンピューターの各システムは、最大 400Gb/s の帯域幅を備えた NVIDIA Quantum-2 InfiniBand ネットワーキングで相互接続され、大規模な AI モデルをトレーニングするためのデータ スループットを強化します。Helios は 1,024 基の Grace Hopper Superchip を搭載し、年末までに稼働を開始する予定です。

完全に統合され、巨大モデルのために構築
DGX GH200 スーパーコンピューターには、最大規模の AI およびデータ分析ワークロードにターンキーのフルスタック ソリューションを提供する NVIDIA ソフトウェアが含まれています。NVIDIA Base Command™ ソフトウェアは、AI ワークフロー管理、エンタープライズ グレードのクラスター管理、そしてコンピューティング、ストレージ、ネットワーク インフラストラクチャを高速化するライブラリ、および AI ワークロードの実行に最適化されたシステム ソフトウェアを提供します。

NVIDIA AI プラットフォームのソフトウェア レイヤーである NVIDIA AI Enterprise(https://www.nvidia.com/ja-jp/data-center/products/ai-enterprise/) も含まれています。生成 AI、コンピューター ビジョン、音声 AI などを含む実稼働のための AI 開発と展開を効率化するための 100 を超えるフレームワーク、事前トレーニング済みモデル、開発ツールを提供します。

提供予定
NVIDIA DGX GH200 スーパーコンピューターは、年末までに提供が開始される予定です。

COMPUTEX 2023 の基調講演(https://www.nvidia.com/ja-jp/events/computex/)でフアンが NVIDIA DGX GH200 スーパーコンピューターについて説明する様子を、リプレイでご覧ください。

NVIDIA について
1993年の創業以来、NVIDIA(NASDAQ:NVDA)はアクセラレーテッド コンピューティングのパイオニアです。同社が 1999 年に発明した GPU は、PC ゲーム市場の成長を促進し、コンピューター グラフィックスを再定義して、現代の AI の時代に火をつけながら、産業用メタバースの創造を後押ししています。NVIDIA は現在、業界を再形成しているデータセンター規模の製品を提供するフルスタック コンピューティング企業です。詳細については、https://nvidianews.nvidia.com/ をご参照ください。

 

 

注目記事:MVNOとは?初心者にもわかりやすく解説 「本当に安くなるの?」

NVIDIA/NVIDIA、ソフトバンクの生成AIと5G/6G向け次世代データセンターでのGrace Hopper Superchip活用に向けソフトバンクと協業

ArmベースのSuperchipとBlueField-3 DPUを活用した革新的なアーキテクチャーにより、生成AIを活用したワイヤレス通信を実現

台湾、台北 – COMPUTEX – 2023 年 5 月 29 日 – NVIDIA(以下「NVIDIA」)とソフトバンク株式会社(以下「ソフトバンク」)は、生成AIと5G(第5世代移動通信システム)/6G(第6世代移動通信システム)に向けた次世代プラットフォームの構築に向けて協業します。このプラットフォームはNVIDIA GH200 Grace Hopper™ Superchip (https://www.nvidia.com/ja-jp/data-center/grace-hopper-superchip/) がベースになっており、ソフトバンクが今後構築する日本各地の新しい分散型AIデータセンターへの導入を予定しています。

生成AIのアプリケーションとサービスの急速かつ世界的な展開を推進するために、ソフトバンクはNVIDIAと協力の下、コスト削減が可能で、エネルギー効率の高いマルチテナントな共通サーバープラットフォームで生成AIとワイヤレス通信向けのアプリケーションを提供する、データセンターを構築します。

このプラットフォームでは、Arm NeoverseのGH200 Superchipをベースにした、新しいNVIDIA MGX™ リファレンスアーキテクチャーが使用され、アプリケーションのパフォーマンス、スケーラビリティーおよびリソースの利用率の改善が期待されています。

ソフトバンク株式会社の代表取締役 社長執行役員 兼 CEOである宮川 潤一は、次のように述べています。「AIと共存する時代に入り、データ処理と電力の需要が急速に増加しています。ソフトバンクは、日本での超デジタル化社会を支えるために次世代社会インフラを提供します。ソフトバンクとNVIDIAとの協業により、RANの最適化を含め、AIを活用した設備パフォーマンスの向上を実現します。さらには消費電力の削減、さまざまな生成AIアプリの実装、リソースの共有のためのデータセンターの相互接続の実現を目指します」

NVIDIAの創業者/CEOであるジェンスン フアン(Jensen Huang)は、次のように述べています。「アクセラレーションコンピューティングと生成AIへの需要は、データセンターのアーキテクチャーを根本的に変える原動力となっています。NVIDIA Grace Hopperは、大規模な拡張性を持ち、生成AIの処理のために設計された革新的なコンピューティングプラットフォームです。これまでの先進的な取り組みと同様に、ソフトバンクは、生成AIをホストする通信ネットワークの構築に向け世界をリードしています」

新しいデータセンターは、より均等に分散化され、AIと5Gの両方のワークロード処理の実現を目指します。これにより、低遅延でピーク時の運用を実現し、全体のエネルギーコストを大幅に削減することができます。

ソフトバンクは、自動運転、AI、拡張現実と仮想現実、コンピュータービジョンおよびデジタルツインのための5G/6Gアプリケーションの実現を目指しています。

業界トップクラスのスループットを実現する仮想RANvRAN
NVIDIA Grace HopperとNVIDIA BlueField®-3データプロセッシングユニットにより、特注のハードウェアアクセラレーションまたは専用の5G CPUを使わずに、ソフトウェアデファインドの5G vRANと生成AIアプリケーションを加速することができます。さらに、NVIDIA SpectrumイーサーネットスイッチとBlueField-3は、5G向けのきわめて精度の高いタイミングプロトコルを備えています。

このソリューションは、NVIDIAアクセラレーテッド1U MGXベースのサーバーデザインになっており、一般に利用可能なデータのダウンリンクスループットが5Gアクセラレーターで36Gbpsという、業界トップクラスの容量を達成し、5G速度の性能限界を打破します。事業者にとっては、業界標準のサーバーで、このような高さのダウンリンク容量を実現することがこれまでの大きな課題となっていました。

新しいファレンスアーキテクチャ
NVIDIA MGXは、モジュール型のリファレンスアーキテクチャーであるため、システムメーカーやハイパースケールのお客さまは、さまざまなAI、HPCおよびNVIDIA Omniverse™ (https://www.nvidia.com/ja-jp/omniverse/) アプリケーションに適した、100種類の異なったサーバーを迅速かつコスト効率よく構築することができるプラットフォームを導入できます。

高性能で、ソフトウェアデファインドな、クラウドネイティブ5Gネットワーク向けのNVIDIA Aerial™ ソフトウェア (https://developer.nvidia.com/aerial-sdk)を組み込むことにより、これらの5G基地局を通じて、通信事業者は、コンピューティングリソースを動的に割り当てることができるようになり、競合他社の製品に比べて電力効率が2.5倍向上することが期待されます。

Armの最高経営責任者であるレネ ハース(Rene Haas)氏は、次のように述べています。「生成AIの未来は、NVIDIAのArm NeoverseベースGrace Hopper Superchipのようなハイパフォーマンスでエネルギー効率の優れたコンピューティングを必要としています。NVIDIA BlueField DPUとGrace Hopperを組み合わせることで、ソフトバンクは新しい5Gデータセンターで最も要求の厳しいコンピューティングとメモリー集約型のアプリケーションを実行し、ソフトウェアデファインド5GおよびAIに飛躍的な効率向上をもたらします」

ソフトバンクについて
ソフトバンク株式会社(プライム市場:9434)は、「情報革命で人々を幸せに」というソフトバンクグループの経営理念の下、ライフスタイルやワークスタイルに変革をもたらす、さまざまな通信サービスやソリューションを提供しています。スマートフォンを中心とした魅力的なサービスや5Gネットワークで通信事業を強化するとともに、AIやIoT、ビッグデータなどの活用や、グローバルに事業を展開するグループのテクノロジー企業群とのコラボレーションにより、革新的な新規事業を創出し、さらなる事業成長を目指しています。
詳細は、ウェブサイト (https://www.softbank.jp/corp/) をご覧ください。

NVIDIAについて
1993年の創業以来、NVIDIA (NASDAQ: NVDA) はアクセラレーテッド コンピューティングのパイオニアです。同社が 1999 年に発明した GPU は、PC ゲーム市場の成長を促進し、コンピューター グラフィックスを再定義して、現代の AI の時代に火をつけながら、メタバースの創造を後押ししています。NVIDIA は現在、業界を再形成しているデータセンター規模の製品を提供するフルスタック コンピューティング企業です。詳細は、こちらのリンクから:https://nvidianews.nvidia.com/ 

※本発表資料は米国時間 2023年 5 月 28日に発表されたプレスリリース (https://nvidianews.nvidia.com/news/softbank-telecom-data-centers-grace-hopper) の抄訳です。

 

 

注目記事:MVNOとは?初心者にもわかりやすく解説 「本当に安くなるの?」

NVIDIA/生成 AI の高速化向けに設計された NVIDIA Grace Hopper Superchip が量産開始

NVIDIA Grace、Hopper、Ada Lovelace アーキテクチャに基づく GH200 搭載システムが
世界的なシステム メーカーから提供されている 400 以上のシステム構成に追加予定

台湾、台北 – COMPUTEX – 2023 年 5 月 29 日 – NVIDIA は本日、NVIDIA® GH200 Grace Hopper Superchip(https://www.nvidia.com/en-us/data-center/grace-hopper-superchip/) の量産が開始し、複雑な AI および HPC ワークロードを実行するための世界中のシステムに搭載予定であることを発表しました。

GH200 を搭載したシステムは、生成 AI に対する急増する需要に応えるために開発された NVIDIA Grace™(https://www.nvidia.com/ja-jp/data-center/grace-cpu/)、NVIDIA Hopper™(https://www.nvidia.com/ja-jp/data-center/technologies/hopper-architecture/)、NVIDIA Ada Lovelace(https://www.nvidia.com/ja-jp/geforce/ada-lovelace-architecture/)、NVIDIA BlueField®(https://www.nvidia.com/ja-jp/networking/products/data-processing-unit/) など、NVIDIA の最新の CPU、そして GPU、DPU アーキテクチャのさまざまなコンビネーションに基づく 400 以上のシステムの仲間入りをします。

COMPUTEX では、NVIDIA の創業者/CEO であるジェンスン フアン (Jensen Huang) が、GH200 Grace Hopper Superchip に関する新しいシステム、パートナー、および詳細を明らかにしました。GH200 Grace Hopper Superchip は、NVIDIA NVLink®-C2C(https://www.nvidia.com/ja-jp/data-center/nvlink-c2c/) インターコネクト テクノロジを使用し、Arm ベースの NVIDIA Grace CPU と Hopper GPU アーキテクチャを統合します。これにより、最大 900 GB/秒の総帯域幅が実現されます。これは、従来のアクセラレーテッド システムに搭載されている標準の PCIe Gen5 レーンよりも 7 倍広い帯域幅であり、最も要求の厳しい生成 AI および HPC アプリケーションに対応する驚異的なコンピューティング能力を提供します。

NVIDIA アクセラレーテッド コンピューティング担当バイス プレジデントのイアン バック (Ian Buck) は次のように述べています。「生成 AI はビジネスを急速に変革し、ヘルスケア、金融、ビジネス サービスを含めたさまざまな業界で新たな機会を開拓し、発見を加速しています。Grace Hopper Superchip の量産が開始したことで、世界中のメーカーは間もなく、企業が独自の独自データを活用する生成 AI アプリケーションを構築および導入するために必要なアクセラレーテッド インフラストラクチャを提供できるようになります」

GH200 を搭載したシステムを活用する顧客には、ヨーロッパと米国の世界的なハイパースケーラーやスーパーコンピューティング センターが含まれます。

何百ものアクセラレーテッド システムとクラウド インスタンス
台湾のメーカーを含め、世界中のシステムメーカーが、NVIDIA のプロセッサを組み合わせたさまざまなシステムを市場に投入しています。AAEON、Advantech、Aetina、ASRock Rack、ASUS、GIGABYTE、Ingrasys、Inventec、Pegatron、QCT、Tyan、Wistron、Wiwynn などの台湾のメーカーが、本日の NVIDIA 創業者/CEO のジェンスン フアンの COMPUTEX 基調講演において、主要パートナーとして取り上げられました。

さらに、世界的なサーバー メーカーである Cisco、Dell Technologies、Hewlett Packard Enterprise、Lenovo、Supermicro、および Atos 傘下の Eviden も、NVIDIA アクセラレーテッド システムを幅広く提供しています。

NVIDIA H100 のクラウド パートナーには、Amazon Web Services (AWS)、Cirrascale、CoreWeave、Google Cloud、Lambda、Microsoft Azure、Oracle Cloud Infrastructure、Paperspace、Vultr が含まれます。

NVIDIA L4 GPU は、Google Cloud で利用可能です。

アクセラレーテッド システム全体にわたるフルスタック コンピューティング
NVIDIA Grace、Hopper、および Ada Lovelace アーキテクチャによって加速される今後のシステム ポートフォリオは、NVIDIA AI、NVIDIA Omniverse™ プラットフォーム、NVIDIA RTX™ テクノロジを含む NVIDIA ソフトウェア スタックの幅広いサポートを提供します。

NVIDIA AI プラットフォームのソフトウェア レイヤーである NVIDIA AI Enterprise(https://www.nvidia.com/ja-jp/data-center/products/ai-enterprise/) は、生成 AI 、コンピューター ビジョン、音声 AI などの運用向け AI の開発と展開を効率化するための 100 を超えるフレームワーク、事前トレーニング済みモデル、開発ツールを提供します。

メタバース アプリケーションを構築および運用するための NVIDIA Omniverse(https://www.nvidia.com/ja-jp/data-center/products/ai-enterprise/) 開発プラットフォームにより、個人やチームが複数のソフトウェア スイートにまたがって作業し、共有環境でリアルタイムな共同作業が可能になります。このプラットフォームは、仮想世界のためのオープンで拡張可能な 3D 言語である Universal Scene Description フレームワークに基づいています。

NVIDIA RTX プラットフォーム(https://developer.nvidia.com/rtx)は、レイトレーシング、ディープラーニング、ラスタライゼーションを融合し、業界をリードするツールと API のサポートにより、コンテンツ クリエイターと開発者の制作プロセスを根本的に変革します。RTX プラットフォーム上に構築されたアプリケーションは、リアルタイムのフォトリアルなレンダリングと AI で強化されたグラフィックス、ビデオ、および画像処理の力をもたらし、何百万人ものデザイナーやアーティストが最高の作品を制作できるようにします。

提供予定
GH200 Superchip を搭載したシステムは、今年後半から発売される予定です。

最新の AI、グラフィックス、そしてNVIDIA 搭載システムについての詳細は、COMPUTEX(https://www.nvidia.com/ja-jp/events/computex/) でご覧ください。

NVIDIA について
1993年の創業以来、NVIDIA(NASDAQ:NVDA)はアクセラレーテッド コンピューティングのパイオニアです。同社が 1999 年に発明した GPU は、PC ゲーム市場の成長を促進し、コンピューター グラフィックスを再定義して、現代の AI の時代に火をつけながら、産業用メタバースの創造を後押ししています。NVIDIA は現在、業界を再形成しているデータセンター規模の製品を提供するフルスタック コンピューティング企業です。詳細については、https://nvidianews.nvidia.com/ をご参照ください。

 

 

注目記事:MVNOとは?初心者にもわかりやすく解説 「本当に安くなるの?」

ブロードバンドセキュリティ/「株主総会資料の電子提供制度BBSecヘルスチェックサービス」を提供開始

株主総会資料電子提供措置の調査・中断対策を支援

情報漏えいIT対策などのセキュリティに特化したサービスを提供する株式会社ブロードバンドセキュリティ(本社:東京都新宿区、代表取締役社長:滝澤 貴志、以下BBSec)は、2023年3月以降開催の株主総会より適用される株主総会資料の電子提供制度において、対象のウェブサイトが正常に表示され、電子提供措置の中断が起きていないかを定期的に検証する「株主総会資料の電子提供制度BBSecヘルスチェックサービス」を開始したことをお知らせします。

【サービス提供の背景】
会社法第325条の6に定められた「電子提供措置の中断」では、電子提供措置開始日から株主総会の日までの期間中に、一時的に電子提供を行うウェブサイトへのアクセスに中断が生じた場合でも、同条文に定める4つの要件(会社が善意・無重過失、中断が生じた時間が10分の1以下など)の全てに該当した場合は、当該電子提供措置の効力に影響を及ぼさないこととされています。しかしながら、本要件のいずれかを満たさなかった場合、株主総会の招集手続の瑕疵を理由に株主総会決議の取消事由の対象になりえるリスクは存在しています。

電子提供措置の効力を担保するためには、電子提供措置期間中、提供が継続して実施されていたことを証明する記録を残すこと、また、サーバーダウンやハッキングなどによるアクセスの不良、中断の発生を速やかに把握し、復旧するための対応を予め準備しておくことがポイントとなります。
特に、アクセス状況については、自社サーバーが稼働していても、外部環境から問題なく表示されていることの証明にはならず、外部環境から表示状況を監視する必要があります。
このような背景をもとに、BBSecでは外部環境からの電子提供措置が正しく行われているかを常時監視するとともに、その担保となる記録や、中断した際の対策までを「BBSecヘルスチェックサービス」にてご提供します。

株主総会資料の電子提供制度BBSecヘルスチェックサービス

サービスの詳細につきましては、以下のページを参照ください。
https://www.gomez.co.jp/wire/column/20230512.html

【Gomezについて】
Gomezは、インターネット上で提供されるサービスを中立的な立場から評価・分析し、インターネット利用者の利便性向上とEコマース市場などの拡大に貢献するための情報提供・企業向けのアドバイスを目的とし、消費者・企業双方に対して利益となる情報を掲載しています。
Gomezを運用するゴメス・コンサルティング本部は、BBSec が2021年7月に事業継承しております。

【BBSecについて】
BBSecは、ITセキュリティの診断・運用・保守・デジタルフォレンジックを手掛けるトータルセキュリティ・サービスプロバイダーです。「日本のITネットワークを世界一堅牢にする」をコンセプトに、2000年11月の設立以来、高い技術力と豊富な経験、幅広い情報収集力を生かし、大手企業、通信事業者から IT ベンチャーに至るまで、様々な企業のITサービスをセキュリティ面でサポートしています。

 

 

注目記事:MVNOとは?初心者にもわかりやすく解説 「本当に安くなるの?」