Nvidia launches new services for training large language models



Nvidia has announced the NeMo LLM Service and BioNeMo LLM Service, which make it easier to adapt LLMs and deploy AI-powered apps at its fall 2022 conference. Using the service, developers can create models ranging in size from 3 billion to 530 billion parameters with custom data in minutes to hours. The models can be customized using prompt learning, which allows developers to tailor models trained with billions of data points for specific applications


Nvidiaは、Nemo LLMサービスとBionemo LLMサービスを発表しました。これにより、2022年秋の会議でLLMSを適応させ、AIを搭載したアプリを簡単に展開できます。このサービスを使用すると、開発者は、数分から数時間でカスタムデータを備えた30億から5,000億のパラメーターのサイズのモデルを作成できます。モデルは迅速な学習を使用してカスタマイズできます。これにより、開発者は特定のアプリケーション用に数十億のデータポイントでトレーニングされたモデルを調整できます。


Today at the company’s fall 2022 GTC conference, Nvidia announced the NeMo LLM Service and BioNeMo LLM Service, which ostensibly make it easier to adapt LLMs and deploy AI-powered apps for a range of use cases including text generation and summarization, protein structure prediction and more.

本日、同社の2022年秋のGTC会議で、NVIDIAはNEMO LLMサービスとBionemo LLMサービスを発表しました。もっと。

The new offerings are a part of Nvidia’s NeMo, an open source toolkit for conversational AI, and they’re designed to minimize — or even eliminate — the need for developers to build LLMs from scratch.


LLMs are frequently expensive to develop and train, with one recent model — Google’s PaLM — costing an estimated $9 million to $23 million leveraging publicly available cloud computing resources.

LLMは、最近の1つのモデルであるGoogle’s Palmの1つのモデルが、推定900万ドルから2,300万ドルのコストが、公開されているクラウドコンピューティングリソースを活用することが多いため、開発と訓練に費用がかかることがよくあります。

Using the NeMo LLM Service, developers can create models ranging in size from 3 billion to 530 billion parameters with custom data in minutes to hours, Nvidia claims.

NEMO LLMサービスを使用して、開発者は30億から5,000億のパラメーターのサイズのモデルを数分から数時間でカスタムデータを使用して作成できます、とNvidiaは主張しています。

(Parameters are the parts of the model learned from historical training data — in other words, the variables that inform the model’s predictions, like the text it generates.) Models can be customized using a technique called prompt learning, which Nvidia says allows developers to tailor models trained with billions of data points for particular, industry-specific applications — e.g.

(パラメーターは、履歴トレーニングデータから学習したモデルの部分です。つまり、生成するテキストのように、モデルの予測を通知する変数です。)モデルは、Nvidiaによると、Prompt Learningと呼ばれる手法を使用してカスタマイズできます。特定の業界固有のアプリケーションのために、数十億のデータポイントでトレーニングされたテーラーモデル – 例えば

a customer service chatbot — using a few hundred examples.

カスタマーサービスチャットボット – 数百の例を使用しています。

Developers can customize models for multiple use cases in a no-code “playground” environment, which also offers features for experimentation.


Once ready to deploy, the tuned models can run on cloud instances, on-premises systems or through an API.


The BioNeMo LLM Service is similar to the LLM Service, but with tweaks for life sciences customers.

Bionemo LLMサービスはLLMサービスに似ていますが、ライフサイエンスの顧客向けの微調整があります。

Part of Nvidia’s Clara Discovery platform and soon available in early access on Nvidia GPU Cloud, it includes two language models for chemistry and biology applications as well as support for protein, DNA and chemistry data, Nvidia says.

NvidiaのClara Discovery Platformの一部であり、すぐにNvidia GPUクラウドで早期にアクセスできるようになり、化学と生物学のアプリケーションの2つの言語モデル、およびタンパク質、DNA、化学データのサポートが含まれています、とNvidiaは言います。

Visualization of bio processes predicted by AI models.


BioNeMo LLM will include four pretrained language models to start, including a model from Meta’s AI R&D division, Meta AI Labs, that processes amino acid sequences to generate representations that can be used to predict protein properties and functions.

Bionemo LLMには、メタのAI R&D部門であるMeta AI Labsのモデルを含む4つの前提条件の言語モデルが含まれます。これは、アミノ酸配列を処理して、タンパク質特性と機能を予測するために使用できる表現を生成します。

Nvidia says that in the future, researchers using the BioNeMo LLM Service will be able to customize the LLMs for higher accuracy Recent research has shown that LLMs are remarkably good at predicting certain biological processes.

Nvidiaは、将来、Bionemo LLMサービスを使用する研究者は、より高い精度のためにLLMSをカスタマイズできるようになると述べています。

That’s because structures like proteins can be modeled as a sort of language — one with a dictionary (amino acids) strung together to form a sentence (protein).


For example, Salesforce’s R&D division several years ago created an LLM model called ProGen that can generate structurally, functionally viable sequences of proteins.


Both the BioNeMo LLM Service and LLM Service include the option to use ready-made and custom models through a cloud API.

Bionemo LLMサービスとLLMサービスの両方には、クラウドAPIを介して既製モデルとカスタムモデルを使用するオプションが含まれています。

Usage of the services also grants customers access to the NeMo Megatron framework, now in open beta, which allows developers to build a range of multilingual LLM models including GPT-3-type language models.

また、サービスの使用は、顧客がNemo Megatron Frameworkへのアクセスを許可しています。現在、オープンベータ版では、開発者がGPT-3タイプの言語モデルを含むさまざまな多言語LLMモデルを構築できるようになりました。

Nvidia says that automotive, computing, education, healthcare and telecommunications brands are currently using NeMo Megatron to launch AI-powered services in Chinese, English, Korean and Swedish.

Nvidiaは、自動車、コンピューティング、教育、ヘルスケア、電気通信ブランドが現在、Nemo Megatronを使用して中国語、英語、韓国語、スウェーデン語でAIを搭載したサービスを開始していると述べています。

The NeMo LLM and BioNeMo services and cloud APIs are expected to be available in early access starting next month.

Nemo LLMおよびBionemo ServicesおよびCloud APIは、来月から早期アクセスで利用できると予想されます。

As for the NeMo Megatron framework, developers can try it via Nvidia’s LaunchPad piloting platform at no charge.

Nemo Megatron Frameworkについては、開発者はNvidiaのLaunchPad Piloting Platformを介して無料で試してみることができます。