Nvidia expands edge AI tech for healthcare and robotics



Nvidia has announced a series of new hardware and software initiatives that will help accelerate the adoption of artificial intelligence at the edge in medical, embedded and robotics. The company also announced the Jetson Orin Nano, a high-powered small form factor device for edge AI in robotics. Notably, medical devices can benefit from the same business model innovation as self-driving cars to be AI powered.


Nvidiaは、医療、組み込み、ロボット工学のエッジで人工知能の採用を加速するのに役立つ一連の新しいハードウェアおよびソフトウェアイニシアチブを発表しました。同社はまた、ロボット工学のエッジAI向けの強力な小さなフォームファクターデバイスであるJetson Orin Nanoを発表しました。特に、医療機器は、自動運転車と同じビジネスモデルの革新から、AIを搭載することができます。


There is a growing need for artificial intelligence (AI) at the edge to help enable and support a variety of use cases, including medical, embedded and robotics.


At the Nvidia GTC conference today, the company announced a series of new hardware and software initiatives that span multiple industries, all designed to help accelerate the performance, capabilities and adoption of AI at the edge.

本日、NVIDIA GTC会議で、同社は複数の業界にまたがる一連の新しいハードウェアおよびソフトウェアイニシアチブを発表しました。これらはすべて、エッジでのAIのパフォーマンス、能力、採用を加速するのに役立つように設計されています。

Among the announcements is the launch of the Nvidia IGX platform — targeted at both industrial and medical use cases.

発表の中には、NVIDIA IGXプラットフォームの立ち上げがあります。これは、産業用および医療ユースケースの両方を対象としています。

The new platform includes the IGX Orin hardware, which is a small form factor AI optimized computing system.

新しいプラットフォームには、IGX Orinハードウェアが含まれています。これは、小さなフォームファクターAI最適化コンピューティングシステムです。

In addition to the new IGX Platform, Nvidia also announced the Jetson Orin Nano, as a high-powered small form factor device for edge AI in robotics.

Nvidiaは、新しいIGXプラットフォームに加えて、Jetson Orin Nanoもロボット工学のEdge AI用の強力な小さなフォームファクターデバイスとして発表しました。

“Combining imaging sensors with real-time, deep learning computer vision, we can bring robotics to healthcare,” Kimberly Powell, vice president and general manager for healthcare at Nvidia said during a press briefing.

「イメージングセンサーとリアルタイムの深い学習コンピュータービジョンを組み合わせて、ロボット工学をヘルスケアに持ち込むことができます」と、Nvidiaのヘルスケアの副社長兼ゼネラルマネージャーであるKimberly Powellは、記者会見の際に述べています。

[Follow along with VB’s ongoing Nvidia GTC 2022 coverage »] MetaBeat 2022 MetaBeat will bring together thought leaders to give guidance on how metaverse technology will transform the way all industries communicate and do business on October 4 in San Francisco, CA.

[VBの進行中のNVIDIA GTC 2022カバレッジに従ってください»] Metabeat 2022 Metabeatは、10月4日にカリフォルニア州サンフランシスコで、すべての業界がコミュニケーションとビジネスを行う方法をメタバーステクノロジーがどのように変換するかについてガイダンスを提供するために、Sound Leadleを集めます。

Powell explained that IGX includes the Orin robotics processor, Ampere tensor core GPU hardware, the ConnectX streaming I/O processor as well as a functional safety island and microcontroller unit.

Powellは、IGXにはOrin Robotics Processor、Ampere Tensor Core GPUハードウェア、ConnectXストリーミングI/Oプロセッサ、および機能的な安全島およびマイクロコントローラーユニットが含まれていると説明しました。

The safety features are particularly important, as Powell noted that more robots and humans will be working side by side in the same environments in the years to come.


The Nvidia Clara Holoscan AI platform sits on top of IGX for medical devices and imaging robotics pipelines that includes detection, segmentation and real-time visualization.

Nvidia Clara Holoscan AIプラットフォームは、検出、セグメンテーション、リアルタイムの視覚化を含む医療機器とイメージングロボットパイプラインのIGXの上にあります。

“Holoscan running on IGX gives the medical device industry a unified and commercial off the shelf platform for real time edge processing, saving huge amounts of hardware and platform engineering,” Powell said.


” Now medical devices can benefit from the same business model innovation as self-driving cars to be AI powered and become software defined.” IGX for medical devices is already seeing some early traction from medical device manufacturers.


At GTC, Nvidia announced that Activ Surgical will be using IGX for its next-generation platform that uses sensor technology to see beyond natural light to deliver real-time imaging and physical structure visualization to surgeons during the surgery.  Moon Surgical is adopting Clara Holoscan on IGX platform for its robotic assisted Maestro system that provides surgeons with enhanced sensory and assisted scope control.  Additionally, Proximie announced that it will be using IGX to help enable its operating room telepresence technology that delivering real-time remote surgeon collaboration.

GTCで、Nvidiaは、Active Surgicalがセンサーテクノロジーを使用して自然光を越えて外科医に外科医にリアルタイムイメージングと身体構造の視覚化を提供する次世代プラットフォームにIGXを使用することを発表しました。Moon Surgicalは、ロボット支援MaestroシステムのためにIGXプラットフォームでClara Holoscanを採用しており、外科医に感覚と支援の範囲制御を強化しています。さらに、Proximieは、IGXを使用して、リアルタイムの遠隔外科医コラボレーションを提供するオペレーティングルームテレプレゼンステクノロジーを有効にするのに役立つと発表しました。

Nvidia is also using GTC as the venue to announce its newest version of the Jetson Orin Nano platform for robotics and edge AI.

Nvidiaはまた、GTCを会場として使用して、ロボット工学とEdge AI用のJetson Orin Nanoプラットフォームの最新バージョンを発表しています。

Deepu Talla, vice president and general manager of embedded and edge computing at Nvidia, commented in a GTC press briefing that the first Jetson Nano was announced back in 2019 as an entry-level platform for AI and robotics.

NvidiaのEmbedded and Edge Computingの副社長兼ゼネラルマネージャーであるDeepu Tallaは、GTCプレスブリーフィングで、最初のJetson Nanoが2019年にAIおよびRoboticsのエントリーレベルのプラットフォームとして発表されたとコメントしました。

With the new Orin Nano update, he noted that there is a significant performance boost of up to 80 times over prior generations.

新しいOrin Nanoのアップデートにより、彼は以前の世代にわたって最大80倍のパフォーマンスが大幅に向上していることに注目しました。

The Jetson Orin Nano is based on the Nvidia Ampere architecture GPU and is set to be available in two different versions, including 4GB and 8GB versions.

Jetson Orin Nanoは、Nvidia Ampere Architecture GPUに基づいており、4GBおよび8GBバージョンを含む2つの異なるバージョンで利用できるように設定されています。

The Jetson Orin Nano is intended to be a component of an overall approach to enabling edge AI robotics.

Jetson Orin Nanoは、Edge AI Roboticsを有効にするための全体的なアプローチのコンポーネントになることを目的としています。

The other components include Nvidia’s Isaac robot simulation platform as well as the software to run the actual robots, which increasingly is the open-source ROS (Robot Operating System).


Talla said that Nvidia has been working with the ROS community over the past year and has made numerous code contributions that help to accelerate the software.


It’s important to note that what Nvidia refers to, broadly as robotics, is, in fact, a very large category of edge AI use cases.

Nvidiaが言及しているものは、広くロボット工学と呼ばれていることは、実際には非常に大きなカテゴリのEDGE AIユースケースであることに注意することが重要です。

“Typically, people think of robots as something that has arms and legs or wheels,” Talla said.  While that type of mobile robot does exist, Tall emphasized that there are plenty of stationary robots.


Nvidia is defining robots as other autonomous devices that are also watching things and have the capability of understanding and interpreting their surroundings.


That definition of edge AI robotics can include things like edge AI in a self-checkout, traffic analytics and even video conference.

Edge AI Roboticsの定義には、セルフチェックアウト、トラフィック分析、さらにはビデオ会議のEdge AIなどが含まれます。

“We’re not building robots ourselves, that’s not what we’re trying to do,” Talla said.


” We’re providing a platform to build the robots faster.” VentureBeat’s mission is to be a digital town square for technical decision-makers to gain knowledge about transformative enterprise technology and transact.