【海外ITニュース速報】Nvidia、LLMクラウドサービスによりAIの幅広い活用を実現

【海外ITニュース速報】Nvidia、LLMクラウドサービスによりAIの幅広い活用を実現

Nvidia enables broader usage of AI with LLM cloud services

Nvidia、LLMクラウドサービスによりAIの幅広い活用を実現

要約(英語):

Nvidia announced a series of new cloud services that aim to enable more organizations and individuals to create, train and benefit from giant AI models. The cloud offerings include the Nvidia NeMo LLM Service and the Nvidia BioNeMo LLM Service. “We are seeing an explosion of research, applying transformer models to all kinds of use cases this year,” said Paresh Kharya, senior director of accelerated computing products at Nvidia

要約(日本語):

Nvidiaは、より多くの組織や個人が巨大なAIモデルの作成、訓練、利益を可能にすることを目的とした一連の新しいクラウドサービスを発表しました。クラウドサービスには、Nvidia Nemo LLMサービスとNvidia Bionemo LLMサービスが含まれます。Nvidiaの加速コンピューティング製品のシニアディレクターであるParesh Kharya氏は、次のように述べています。

本文:

In recent years, large language models (LLMs) have become a foundational form of artificial intelligence (AI) models.

近年、大規模な言語モデル(LLM)は、人工知能(AI)モデルの基礎形式になっています。

The challenge, however, has been that creating and training new LLMs is far from a trivial exercise.

しかし、課題は、新しいLLMSを作成およびトレーニングすることは、些細な運動とはほど遠いことです。

At the Nvidia GTC conference today, the company made a long list of announcements spanning the full spectrum of AI operations across multiple industries.

本日のNVIDIA GTC会議で、同社は複数の業界でAIオペレーションの全範囲にまたがる発表の長いリストを作成しました。

One of the key announcements that Nvidia made is about a series of new LLM capabilities, including a pair of cloud services that aim to enable more organizations and individuals to create, train and benefit from LLMs.

NVIDIAが作成した重要な発表の1つは、より多くの組織や個人がLLMの作成、訓練、利益を可能にすることを目的としたクラウドサービスのペアを含む、一連の新しいLLM機能に関するものです。

“We are announcing NeMo LLM Service to enable customization and inference of giant AI models,” Paresh Kharya, senior director of accelerated computing products at Nvidia, told VentureBeat.

NVIDIAのAccelerated Computing ProductsのシニアディレクターであるParesh Kharyaは、VentureBeatに、「巨大なAIモデルのカスタマイズと推論を可能にするために、Nemo LLMサービスを発表しています」と語った。

“Just like how LLMs can understand the human language, they’ve also been trained to understand the language of biology and chemistry.” LLMs are based on AI transformer architecture and are widely used to support a growing number of use cases.

「LLMが人間の言語を理解する方法と同じように、彼らは生物学と化学の言語を理解するために訓練されています。」LLMはAIトランスアーキテクチャに基づいており、ますます多くのユースケースをサポートするために広く使用されています。

Kharya explained that with a transformer, the AI model can understand which parts of a sentence, an image or even very disparate data points are relevant to each other.

Kharyaは、変圧器を使用すると、AIモデルは、文のどの部分、画像、または非常に異なるデータポイントが互いに関連しているかを理解できると説明しました。

Unlike convolutional neural networks (CNNs), which typically look at only the immediate neighboring relationships, transformers are designed to train on more distant relationships as well, which Kharya said is very important for use cases like natural language processing (NLP).

通常、すぐに隣接する関係のみを見る畳み込みニューラルネットワーク(CNN)とは異なり、トランスはより遠い関係でトレーニングするように設計されています。

“Transformers also enable us to train on unlabeled datasets, and that greatly expands the volume of data,” he said.

「トランスフォーマーはまた、無効なデータセットでトレーニングすることができ、それがデータの量を大幅に拡大することを可能にします」と彼は言いました。

“We are really seeing an explosion of research, applying transformer models to all kinds of use cases this year.

「私たちは本当に研究の爆発を見ており、今年はあらゆる種類のユースケースに変圧器モデルを適用しています。

We are expected to have 11,000 papers on transformers, actually seven times more than five years ago.” The GPT-3 LLM has helped to increase awareness and adoption of LLMs for a variety of use cases, including summation and text generation.

トランスに関する11,000の論文があり、実際には5年以上前に7倍になると予想されています。」GPT-3 LLMは、合計やテキスト生成を含むさまざまなユースケースのLLMSの認識と採用を増やすのに役立ちました。

An LLM is also at the foundation of the DALL-E text-to-image generation technology.

LLMは、Dall-Eテキストからイメージまでの生成テクノロジーの基礎にもあります。

“Today, we are seeing LLMs being applied to predict protein structures from sequences of amino acids or for understanding and generating art by learning the relationship between pixels,” Kharya said.

「今日、私たちは、アミノ酸のシーケンスからタンパク質構造を予測するためにLLMが適用されているか、ピクセル間の関係を学ぶことでARTを理解し、生成するために適用されています」とカリヤは言いました。

As with any type of AI model, context matters.

あらゆるタイプのAIモデルと同様に、コンテキストが重要です。

What might make sense for one audience or use case will not be appropriate for another.

ある聴衆やユースケースにとって意味をなさないかもしれないものは、別の視聴者にとっては適切ではありません。

Training entirely new LLMs for every type of use case is a time-consuming process.

あらゆるタイプのユースケースで完全に新しいLLMをトレーニングすることは、時間のかかるプロセスです。

Kharya said that an emerging approach of providing context to LLMs for specific use cases is a technique known as prompt learning.

Kharyaは、特定のユースケースにLLMSにコンテキストを提供するという新たなアプローチは、迅速な学習として知られる手法であると述べました。

He explained that with prompt learning, a companion model is trained that learns to provide the context to the pretrained large language model, using what’s called a prompt token.  The companion model can learn the context by using as few as 100 examples of queries with the right responses.

彼は、迅速な学習により、プロンプトトークンと呼ばれるものを使用して、前提条件の大規模な言語モデルにコンテキストを提供することを学ぶコンパニオンモデルが訓練されていると説明しました。コンパニオンモデルは、正しい応答を持つわずか100のクエリの例を使用することにより、コンテキストを学ぶことができます。

At the end of the prompt learning training, a token is generated that can then be used together with the query, which will provide the context required from the LLM.

迅速な学習トレーニングの最後に、トークンが生成され、クエリと一緒に使用できます。これにより、LLMから必要なコンテキストが提供されます。

The new NeMo LLM Service is an effort to make it easier to enable customization and inference of giant AI models.  The giant AI models that the service will support include a 5 billion- and a 20 billion-parameter GPT-based model, as well as one based on the Megatron 530-billion parameter LLM.

新しいNEMO LLMサービスは、巨大なAIモデルのカスタマイズと推論を容易にするための取り組みです。サービスがサポートする巨大なAIモデルには、50億および20億パラメーターのGPTベースのモデルと、530億ポラメーターLLMに基づいたモデルが含まれます。

As part of the service, Nvidia is also supporting prompt learning–based tuning to rapidly enable context-specific use cases.

サービスの一環として、NVIDIAは、コンテキスト固有のユースケースを迅速に有効にするための迅速な学習ベースのチューニングもサポートしています。

Kharya said that the NeMo LLM Service will also include the option to use both ready-made models and custom models through a cloud-based API experience.

Kharyaは、Nemo LLMサービスには、クラウドベースのAPIエクスペリエンスを通じて、既製モデルとカスタムモデルの両方を使用するオプションも含まれると述べました。

Going a step further, Nvidia is also launching a specific LLM capability for life sciences with the BioNeMo Service.

さらに一歩進んで、NvidiaはBionemoサービスでライフサイエンス向けの特定のLLM機能を開始しています。

“Just like how an LLM can understand the human language, they’ve also been trained to understand the language of biology and chemistry,” Kharya said.  Kharya said that, for example, DNA is the language basically written in the alphabet of nucleic acid and the language of protein structures is written in the alphabet of amino acids.  Overall the goal with the new LLM services is to further expand the use of AI.

「LLMが人間の言語を理解できるように、彼らは生物学と化学の言語を理解するように訓練されています」とカリヤは言いました。Kharyaは、たとえば、DNAは基本的に核酸のアルファベットで書かれている言語であり、タンパク質構造の言語はアミノ酸のアルファベットで書かれていると述べました。全体的に、新しいLLMサービスの目標は、AIの使用をさらに拡大することです。

“The promises and possibilities are really immense and it’s the access to large language models and the ability to customize them easily that was not there before,” Kharya said.

「約束と可能性は非常に計り知れないものであり、大規模な言語モデルへのアクセスであり、以前はそこになかったそれらを簡単にカスタマイズする能力です」とカリヤは言いました。

“So what the NeMo Large Language Model Service does is it removes that barrier and it now enables everyone to access and experiment with [LLMs] for their use cases.” VentureBeat’s mission is to be a digital town square for technical decision-makers to gain knowledge about transformative enterprise technology and transact.

「だから、Nemo Large Language Model Serviceが行うことは、その障壁を取り除くことであり、これにより、誰もがユースケースの[LLM]にアクセスして実験できるようになりました。」VentureBeatの使命は、技術的な意思決定者が変革的なエンタープライズテクノロジーと取引に関する知識を得るためのデジタルタウンスクエアになることです。

元記事

https://venturebeat.com/ai/nvidia-enables-broader-usage-of-ai-with-llm-cloud-services/

Newsカテゴリの最新記事