【海外ITニュース速報】ディーンビート NvidiaのCEOであるJensen Huang氏は、AIがメタバースの3D画像を自動生成するようになると語る

【海外ITニュース速報】ディーンビート NvidiaのCEOであるJensen Huang氏は、AIがメタバースの3D画像を自動生成するようになると語る

The DeanBeat: Nvidia CEO Jensen Huang says AI will auto-populate the 3D imagery of the metaverse

ディーンビート NvidiaのCEOであるJensen Huang氏は、AIがメタバースの3D画像を自動生成するようになると語る

要約(英語):

Nvidia's Jensen Huang has said that AI will auto-populate the 3D imagery of the metaverse. "The metaverse is either created by us by hand, or it's created by us by...human creators will take over and refine them to their liking," he added

要約(日本語):

NvidiaのJensen Huangは、AIがメタバースの3D画像を自動的に入力すると述べています。「メタバースは私たちによって手作業で作成されたか、それが私たちによって作成された...人間のクリエイターが引き継いで彼らの好みに合わせて洗練します」と彼は付け加えました

本文:

It takes AI kinds to make a virtual world.

仮想世界を作るにはAIの種類が必要です。

Nvidia CEO Jensen Huang said this week during a Q&A at the GTC22 online event that AI will auto-populate the 3D imagery of the metaverse.

Nvidia CEOのJensen Huangは今週、GTC22オンラインイベントでのQ&Aで、AIがメタバースの3D画像を自動的に入力すると述べました。

He believes that AI will make the first pass at creating the 3D objects that populate the vast virtual worlds of the metaverse — and then human creators will take over and refine them to their liking.

彼は、AIがメタバースの広大な仮想世界に登場する3Dオブジェクトを作成する際に最初のパスを作成すると考えています。そして、人間のクリエイターが引き継ぎ、好みに合わせて洗練します。

And while that is a very big claim about how smart AI will be, Nvidia has research to back it up.

そして、それはAIがどれほどスマートであるかについての非常に大きな主張ですが、Nvidiaはそれをバックアップするための研究を持っています。

Nvidia Research is announcing this morning a new AI model can help contribute to the massive virtual worlds created by growing numbers of companies and creators could be more easily populated with a diverse array of 3D buildings, vehicles, characters and more.

Nvidia Researchは、今朝、新しいAIモデルが、増えている企業やクリエイターの増加によって生み出された大規模な仮想世界に貢献できることを発表しています。

This kind of mundane imagery represents an enormous amount of tedious work.

この種のありふれた画像は、膨大な量の退屈な作品を表しています。

Nvidia said the real world is full of variety: streets are lined with unique buildings, with different vehicles whizzing by and diverse crowds passing through.

Nvidia氏によると、現実の世界には多様性がたくさんあります。通りにはユニークな建物が並んでおり、さまざまな車両が鳴り響き、多様な群衆が通り抜けています。

Manually modeling a 3D virtual world that reflects this is incredibly time consuming, making it difficult to fill out a detailed digital environment.

これを反映する3D仮想世界を手動でモデル化することは非常に時間がかかるため、詳細なデジタル環境に記入することは困難です。

MetaBeat 2022 MetaBeat will bring together thought leaders to give guidance on how metaverse technology will transform the way all industries communicate and do business on October 4 in San Francisco, CA.

Metabeat 2022 Metabeatは、10月4日にカリフォルニア州サンフランシスコで、すべての産業がコミュニケーションとビジネスを行う方法をメタバーステクノロジーがどのように変化させるかについてのガイダンスを提供するために、Sound Leadersを集めます。

This kind of task is what Nvidia wants to make easier with its Omniverse tools and cloud service.

この種のタスクは、NvidiaがOmniverseツールとクラウドサービスで簡単にしたいものです。

It hopes to make developers’ lives easier when it comes to creating metaverse applications.

メタバースアプリケーションの作成に関しては、開発者の生活を楽にしたいと考えています。

And auto-generating art — as we’ve seen happening with the likes of DALL-E and other AI models this year — is one way to alleviate the burden of building a universe of virtual worlds like in Snow Crash or Ready Player One.

そして、自動生成アートは、今年Dall-Eや他のAIモデルなどで起こっているのを見たように、雪クラッシュやレディプレイヤー1のような仮想世界の世界を構築する負担を軽減する1つの方法です。

I asked Huang in a press Q&A earlier this week what could make the metaverse come faster.

今週初めにプレスQ&AでHuangに、メタバースがより速くなるのはなぜか尋ねました。

He alluded to the Nvidia Research work, though the company didn’t spill the beans until today.

彼はNvidiaの研究活動を暗示しましたが、会社は今日まで豆をこぼしませんでした。

“First of all, as you know, the metaverse is created by users.

「まず、ご存知のように、メタバースはユーザーによって作成されます。

And it’s either created by us by hand, or it’s created by us with the help of AI,” Huang said.

そして、それは私たちによって手作業で作成されたか、AIの助けを借りて私たちによって作成されました」とHuangは言いました。

“And, and in the future, it’s very likely that we’ll describe will some characteristic of a house or characteristic of a city or something like that.

「そして、将来的には、家や都市の特徴などの特徴を説明する可能性が非常に高いです。

And it’s like this city, or it’s like Toronto, or is like New York City, and it creates a new city for us.

そして、それはこの都市のようなものであるか、トロントのようなものであるか、ニューヨーク市のようなものであり、私たちのために新しい都市を作り出しています。

And maybe we don’t like it.

そして多分私たちはそれが好きではありません。

We can give it additional prompts.

追加のプロンプトを提供できます。

Or we can just keep hitting “enter” until it automatically generates one that we would like to start from.

または、開始したいものが自動的に生成されるまで、「Enter」を押し続けることができます。

And then from that, from that world, we will modify it.

そしてそれから、その世界から、私たちはそれを修正します。

And so I think the AI for creating virtual worlds is being realized as we speak.” Trained using only 2D images, Nvidia GET3D generates 3D shapes with high-fidelity textures and complex geometric details.

そして、仮想世界を作成するためのAIは、私たちが話すように実現されていると思います。」2D画像のみを使用してトレーニングされたNvidia get3Dは、忠実度の高いテクスチャと複雑な幾何学的な詳細を備えた3D形状を生成します。

These 3D objects are created in the same format used by popular graphics software applications, allowing users to immediately import their shapes into 3D renderers and game engines for further editing.

これらの3Dオブジェクトは、一般的なグラフィックソフトウェアアプリケーションで使用されるのと同じ形式で作成され、ユーザーはすぐにシェイプを3Dレンダラーとゲームエンジンにインポートして、さらに編集できます。

The generated objects could be used in 3D representations of buildings, outdoor spaces or entire cities, designed for industries including gaming, robotics, architecture and social media.

生成されたオブジェクトは、ゲーム、ロボット工学、建築、ソーシャルメディアなどの業界向けに設計された建物、屋外スペース、または都市全体の3D表現で使用できます。

GET3D can generate a virtually unlimited number of 3D shapes based on the data it’s trained on.

GET3Dは、トレーニングされているデータに基づいて、実質的に無制限の3D形状を生成できます。

Like an artist who turns a lump of clay into a detailed sculpture, the model transforms numbers into complex 3D shapes.

粘土の塊を詳細な彫刻に変えるアーティストのように、モデルは数値を複雑な3D形状に変換します。

“At the core of that is precisely the technology I was talking about just a second ago called large language models,” he said.

「その中心にあるのは、まさに私が大手言語モデルと呼ばれるほんの1秒前に話していたテクノロジーです」と彼は言いました。

“To be able to learn from all of the creations of humanity, and to be able to imagine a 3D world.

「人類のすべての創造物から学び、3Dの世界を想像できるようにすることができます。

And so from words, through a large language model, will come out someday, triangles, geometry, textures, and materials.

そして、言葉から、大規模な言語モデルを通して、いつか、三角形、ジオメトリ、テクスチャ、素材が出てきます。

And then from that, we would modify it.

そしてそれから、私たちはそれを変更します。

And, and because none of it is pre-baked, and none of it is pre-rendered, all of this simulation of physics and all the simulation of light has to be done in real time.

そして、それが事前に焼かれておらず、それのどれも事前にレンダリングされていないため、この物理学のすべてのシミュレーションとすべての光のシミュレーションはリアルタイムで行う必要があります。

And that’s the reason why the latest technologies that we’re creating with respect to RTX neuro rendering are so important.

それが、RTXニューロレンダリングに関して私たちが作成している最新のテクノロジーが非常に重要である理由です。

Because we can’t do it brute force.

ブルートフォースを行うことができないからです。

We need the help of artificial intelligence for us to do that.” With a training dataset of 2D car images, for example, it creates a collection of sedans, trucks, race cars and vans.

それを行うには、人工知能の助けが必要です。」たとえば、2Dカーの画像のトレーニングデータセットを使用すると、セダン、トラック、レースカー、バンのコレクションを作成します。

When trained on animal images, it comes up with creatures such as foxes, rhinos, horses and bears.

動物の画像で訓練されると、キツネ、サイ、馬、クマなどの生き物が思いつきます。

Given chairs, the model generates assorted swivel chairs, dining chairs and cozy recliners.

椅子が与えられた場合、このモデルは、さまざまなスイベルチェア、ダイニングチェア、居心地の良いリクライヤーを生成します。

“GET3D brings us a step closer to democratizing AI-powered 3D content creation,” said Sanja Fidler, vice president of AI research at Nvidia and a leader of the Toronto-based AI lab that created the tool.

NVIDIAのAI研究担当副社長であり、ツールを作成したトロントに本拠を置くAIラボのリーダーであるSanja Fidler氏は、次のように述べています。

“Its ability to instantly generate textured 3D shapes could be a game-changer for developers, helping them rapidly populate virtual worlds with varied and interesting objects.” GET3D is one of more than 20 Nvidia-authored papers and workshops accepted to the NeurIPS AI conference, taking place in New Orleans and virtually, Nov.

「テクスチャのある3Dシェイプを即座に生成する能力は、開発者にとってゲームチェンジャーになる可能性があり、さまざまな興味深いオブジェクトに仮想世界に迅速に浸透するのを支援します。」GET3Dは、ニューオーリンズで行われ、実質的に11月に開催されるニューリップスAI会議に受け入れられた20を超えるNVIDIA認定の論文とワークショップの1つです。

26-Dec.

26-dec。

4. Nvidia said that, though quicker than manual methods, prior 3D generative AI models were limited in the level of detail they could produce.

4. Nvidiaは、手動の方法よりも速いものの、以前の3D生成AIモデルが生成できる詳細レベルが制限されていると述べました。

Even recent inverse rendering methods can only generate 3D objects based on 2D images taken from various angles, requiring developers to build one 3D shape at a time.

最近の逆レンダリング方法でさえ、さまざまな角度から取られた2D画像に基づいて3Dオブジェクトを生成することができ、開発者は一度に1つの3D形状を構築する必要があります。

GET3D can instead churn out some 20 shapes a second when running inference on a single Nvidia graphics processing unit (GPU) — working like a generative adversarial network for 2D images, while generating 3D objects.

GET3Dは、3Dオブジェクトを生成しながら、2D画像の生成的敵対的ネットワークのように機能する単一のNVIDIAグラフィックプロセシングユニット(GPU)で推論を実行するときに、1秒間に約20枚の形状を解消できます。

The larger, more diverse the training dataset it’s learned from, the more varied anddetailed the output.

学習されたトレーニングデータセットが大きく、より多様なほど、出力がより多様化し、セテールしました。

Nvidia researchers trained GET3D on synthetic data consisting of 2D images of 3D shapes captured from different camera angles.

NVIDIAの研究者は、異なるカメラアングルからキャプチャされた3D形状の2D画像で構成される合成データでGET3Dを訓練しました。

It took the team just two days to train the model on around a million images using Nvidia A100 Tensor Core GPUs.

NVIDIA A100テンソルコアGPUを使用して、約2日間のモデルを約100万の画像でトレーニングするのにわずか2日かかりました。

GET3D gets its name from its ability to Generate Explicit Textured 3D meshes — meaning that the shapes it creates are in the form of a triangle mesh, like a papier-mâché model, covered with a textured material.

Get3Dは、明示的なテクスチャ3Dメッシュを生成する機能から名前を取得します。つまり、作成する形状は、テクスチャマテリアルで覆われたPapier-Mâchéモデルのような三角形のメッシュの形です。

This lets users easily import the objects into game engines, 3D modelers and film renderers — and edit them.

これにより、ユーザーはオブジェクトをゲームエンジン、3Dモデラー、フィルムレンダラーに簡単にインポートし、編集できます。

Once creators export GET3D-generated shapes to a graphics application, they can apply realistic lighting effects as the object moves or rotates in a scene.

Creators Export Get3D-generated Shapeをグラフィックスアプリケーションに導入すると、オブジェクトがシーンで移動または回転するにつれて、現実的な照明効果を適用できます。

By incorporating another AI tool from NVIDIA Research, StyleGAN-NADA, developers can use text prompts to add a specific style to an image, such as modifying a rendered car to become a burned car or a taxi, or turning a regular house into a haunted one.

Nvidia Researchの別のAIツールを組み込むことにより、Stylegan-Nadaである開発者は、テキストプロンプトを使用して、レンダリングされた車を変更して燃えた車やタクシーになる、通常の家を幽霊に変えるなど、画像に特定のスタイルを追加できます。1。

The researchers note that a future version of GET3D could use camera pose estimation techniques to allow developers to train the model on real-world data instead of synthetic datasets.

研究者は、Get3Dの将来のバージョンでは、カメラポーズ推定技術を使用して、開発者が合成データセットの代わりに実際のデータでモデルをトレーニングできるようにすることができることに注意してください。

It could also be improved to support universal generation — meaning developers could train GET3D on all kinds of 3D shapes at once, rather than needing to train it on one object category at a time.

また、ユニバーサルジェネレーションをサポートするために改善することもできます。つまり、開発者は、一度に1つのオブジェクトカテゴリでトレーニングする必要があるのではなく、あらゆる種類の3D形状でGET3Dを一度にトレーニングできます。

So AI will generate worlds, Huang said.

そのため、AIは世界を生み出します、とHuangは言いました。

Those worlds will be simulations, not just animations.

これらの世界は、アニメーションだけでなく、シミュレーションになります。

And to run all of this, Huang foresees the need to create a “new type of datacenter around the world.” It’s called a GDN, not a CDN.

そして、これらすべてを実行するために、Huangは「世界中に新しいタイプのデータセンター」を作成する必要性を予見しています。CDNではなくGDNと呼ばれます。

It’s a graphics delivery network, battle tested through Nvidia’s GeForce Now cloud gaming service.

これはグラフィックデリバリーネットワークであり、NvidiaのGeForce Now Cloud Gamingサービスを通じてテストされています。

Nvidia has taken that service and use it create Omniverse Cloud, a suite of tools that can be used to create Omniverse applications, any time and anywhere.

Nvidiaはそのサービスを利用して、それを使用して、Omniverse Cloudを作成します。これは、いつでもどこでもOmniverseアプリケーションを作成するために使用できるツールのスイートです。

The GDN will host cloud games as well as the metaverse tools of Omniverse Cloud.

GDNは、CloudゲームとOmniverse Cloudのメタバースツールをホストします。

This type of network could deliver real-time computing that is necessary for the metaverse.

このタイプのネットワークは、メタバースに必要なリアルタイムコンピューティングを提供できます。

“That is interactivity that is essentially instantaneous,” Huang said.

「それは本質的に瞬間的な対話性です」とHuang氏は言いました。

Are any game developers asking for this?

ゲーム開発者はこれを求めていますか?

Well, in fact, I know one who is.

まあ、実際、私は誰であるかを知っています。

Brendan Greene, creator of battle royale game PlayerUnknown’s Productions, asked for this kind of technology this year when he announced Prologue and then revealed Project Artemis, an attempt to create a virtual world the size of the Earth.

バトル・ロイヤル・ゲーム・プレーヤー・ノウンドのプロダクションの作成者であるブレンダン・グリーンは、今年、この種のテクノロジーをプロローグを発表し、プロジェクト・アルテミスを明らかにしたときに、地球の規模の仮想世界を創造しようとする試みを公開しました。

He said it could only be built with a combination of game design, user-generated content, and AI.

彼は、ゲームデザイン、ユーザー生成コンテンツ、およびAIの組み合わせでのみ構築できると述べました。

Well, holy shit.

まあ、聖なるたわごと。

GamesBeat's creed when covering the game industry is "where passion meets business." What does this mean?

ゲーム業界をカバーするときのGamesbeat's Creedは、「情熱がビジネスに出会う場所」です。これは何を意味するのでしょうか?

We want to tell you how the news matters to you -- not just as a decision-maker at a game studio, but also as a fan of games.

ゲームスタジオの意思決定者としてだけでなく、ゲームのファンとしても、ニュースがあなたにとってどのように重要であるかをお伝えしたいと思います。

Whether you read our articles, listen to our podcasts, or watch our videos, GamesBeat will help you learn about the industry and enjoy engaging with it.

私たちの記事を読んだり、ポッドキャストを聴いたり、ビデオを見たりしても、GamesBeatは業界について学び、それに取り組むのに役立ちます。

元記事

https://venturebeat.com/games/the-deanbeat-nvidia-ceo-jensen-huang-says-ai-will-auto-populate-the-3d-imagery-of-the-metaverse/

Newsカテゴリの最新記事