Nvidia moves Hopper GPUs for AI into full production



Nvidia announced today that the Nvidia H100 Tensor Core graphics processing unit (GPU) is in full production. Global tech partners are planning to roll out the first wave of products and services based on the Nvidia Hopper architecture in October. Unveiled in April, the H100 is built with 80 billion transistors and has a range of technology breakthroughs. Among them are the powerful new Transformer Engine and an Nvidia NVLink interconnect


Nvidiaは本日、Nvidia H100テンソルコアグラフィックスプロセシングユニット(GPU)が完全に生産されていることを発表しました。グローバルテクノロジーパートナーは、10月のNvidia Hopper Architectureに基づいて、製品とサービスの最初の波を展開することを計画しています。4月に発表されたH100は、800億のトランジスタで構築されており、さまざまな技術のブレークスルーがあります。その中には、強力な新しい変圧器エンジンとnvidia nvlink interconnectがあります


Nvidia announced today that the Nvidia H100 Tensor Core graphics processing unit (GPU) is in full production, with global tech partners planning in October to roll out the first wave of products and services based on the Nvidia Hopper architecture.

Nvidiaは本日、NVIDIA H100テンソルコアグラフィックスプロセシングユニット(GPU)が完全に生産されており、10月にGlobal Tech PartnersがNVIDIA Hopperアーキテクチャに基づいた製品とサービスの最初の波を展開することを計画していることを発表しました。

Nvidia CEO Jensen Huang made the announcement at Nvidia’s online GTC fall event.

Nvidia CEOのJensen Huangは、NvidiaのオンラインGTCフォールイベントで発表を行いました。

Unveiled in April, H100 is built with 80 billion transistors and has a range of technology breakthroughs.


Among them are the powerful new Transformer Engine and an Nvidia NVLink interconnect to accelerate the largest artificial intelligence (AI) models, like advanced recommender systems and large language models, and to drive innovations in such fields as conversational AI and drug discovery.

その中には、強力な新しい変圧器エンジンとNVIDIA NVLinkインターコネクトがあり、高度な推奨システムや大規模な言語モデルなど、最大の人工知能(AI)モデルを加速し、会話のAIや創薬などの分野で革新を促進します。

“Hopper is the new engine of AI factories, processing and refining mountains of data to train models with trillions of parameters that are used to drive advances in language-based AI, robotics, healthcare and life sciences,” said Jensen Huang, founder and CEO of Nvidia, in a statement.


“Hopper’s Transformer Engine boosts performance up to an order of magnitude, putting large-scale AI and HPC within reach of companies and researchers.” GamesBeat Summit Next 2022 Join gaming leaders live this October 25-26 in San Francisco to examine the next big opportunities within the gaming industry.


In addition to Hopper’s architecture and Transformer Engine, several other key innovations power the H100 GPU to deliver the next massive leap in Nvidia’s accelerated compute data center platform, including second-generation Multi-Instance GPU, confidential computing, fourth-generation Nvidia NVLink and DPX Instructions.

Hopperのアーキテクチャとトランスエンジンに加えて、他のいくつかの重要なイノベーションはH100 GPUに電力を供給し、NVIDIAの加速コンピューティングデータセンタープラットフォームで次の大規模な飛躍を提供します。GPU、機密コンピューティング、第4世代NVIDIA NVLINKおよびDPX命令。

“We’re super excited to announce that the Nvidia H100 is now in full production,” said Ian Buck, general manager of accelerated computing at Nvidia, in a press briefing.

「Nvidia H100が現在完全に生産されていることを発表できることを非常に楽しみにしています」と、NVIDIAのAccelerated ComputingのゼネラルマネージャーであるIan Buckは、記者会見で述べています。

“We’re ready to take orders for shipment in Q1 (starting in Nvidia’s fiscal year in October).


And starting next month, our systems partners from Asus to Supermicro will be starting to ship their H100 systems, starting with the PCIe products and expanding later on this year to the NVLink HDX platforms.” A five-year license for the Nvidia AI Enterprise software suite is now included with H100 for mainstream servers.

そして来月から、ASUSからSuperMicroまでのシステムパートナーは、PCIE製品から始まり、今年の後半にNVLink HDXプラットフォームに拡大し、H100システムの出荷を開始します。」NVIDIA AI Enterprise Software Suiteの5年間のライセンスは、主流サーバー用のH100に含まれています。

This optimizes the development and deployment of AI workflows and ensures organizations have access to the AI frameworks and tools needed to build AI chatbots, recommendation engines, vision AI and more.


H100 enables companies to slash costs for deploying AI, delivering the same AI performance with 3.5 times more energy efficiency and three times lower total cost of ownership, while using five times fewer server nodes over the previous generation.


For customers who want to try the new technology immediately, Nvidia announced that H100 on Dell PowerEdge servers is now available on Nvidia LaunchPad, which provides free hands-on labs, giving companies access to the latest hardware and Nvidia AI software.

NVIDIAは、すぐに新しいテクノロジーを試してみたいと思うお客様のために、Dell PowerEdgeサーバーのH100がNVIDIA LaunchPadで利用できるようになったことを発表しました。

Customers can also begin ordering Nvidia DGX H100 systems, which include eight H100 GPUs and deliver 32 petaflops of performance at FP8 precision.

顧客は、8つのH100 GPUを含むNVIDIA DGX H100システムの注文を開始し、FP8 Precisionで32のPetaFlopsのパフォーマンスを提供することもできます。

Nvidia Base Command and Nvidia AI Enterprise software power every DGX system, enabling deployments from a single node to an Nvidia DGX SuperPOD, supporting advanced AI development of large language models and other massive workloads.

NVIDIA BASEコマンドとNVIDIA AIエンタープライズソフトウェアパワーすべてのDGXシステムは、単一ノードからNVIDIA DGXスーパーポッドへの展開を可能にし、大規模な言語モデルやその他の大規模なワークロードの高度なAI開発をサポートします。

H100-powered systems from the world’s leading computer makers are expected to ship in the coming weeks, with over 50 server models in the market by the end of the year and dozens more in the first half of 2023. Partners building systems include Atos, Cisco, Dell Technologies, Fujitsu, GIGABYTE, Hewlett Packard Enterprise, Lenovo and Supermicro.

世界をリードするコンピューターメーカーのH100搭載システムは、今後数週間で出荷される予定であり、年末までに50を超えるサーバーモデルが市場に、2023年前半にはさらに数十。、Dell Technologies、Fujitsu、Gigabyte、Hewlett Packard Enterprise、Lenovo、Supermicro。

Additionally, some of the world’s leading higher education and research institutions will be using H100 to power their next-generation supercomputers.


Among them are the Barcelona Supercomputing Center, Los Alamos National Lab, Swiss National Supercomputing Centre (CSCS), Texas Advanced Computing Center and the University of Tsukuba.


Compared to the prior A100 generation, Buck said the prior system had 320 A100 systems in a datacenter, but with Hopper a data center would only need 64 H100 systems to match that throughput of the older data center.

以前のA100世代と比較して、Buckは、以前のシステムにはデータセンターに320 A100システムがあると述べましたが、Hopperでは、データセンターには、古いデータセンターのスループットと一致するために64 H100システムが必要です。

That’s a 20% reduction in nodes and a huge improvement in energy efficiency.


GamesBeat’s creed when covering the game industry is “where passion meets business.” What does this mean?

ゲーム業界をカバーするときのGamesbeat’s Creedは、「情熱がビジネスに出会う場所」です。これは何を意味するのでしょうか?

We want to tell you how the news matters to you — not just as a decision-maker at a game studio, but also as a fan of games.


Whether you read our articles, listen to our podcasts, or watch our videos, GamesBeat will help you learn about the industry and enjoy engaging with it.