Amazon SageMaker continues to expand machine learning (ML) use in the cloud
Amazon SageMakerは、クラウドでの機械学習(ML)利用を拡大し続けている
要約(英語):
Amazon SageMaker, which got its start five years ago, is among the most widely used machine learning (ML) services in existence. Its multi-model endpoints capability allows a single GPU to host thousands of models, reports said. Notably, AWS has expanded SageMaker’s Studio offering, which provides an integrated developer environment for data scientists to build ML application workflows. Notably, AWS Graviton Cloud instances have support for multi-model endpoints
要約(日本語):
5年前に開始したAmazon Sagemakerは、存在する最も広く使用されている機械学習(ML)サービスの1つです。マルチモデルエンドポイント機能により、単一のGPUが数千のモデルをホストできるようになります、とレポートは言いました。特に、AWSはSagemakerのスタジオ製品を拡大しました。これにより、データサイエンティストがMLアプリケーションワークフローを構築するための統合開発者環境が提供されます。特に、AWSグラビトンクラウドインスタンスはマルチモデルエンドポイントをサポートしています
本文:
Amazon SageMaker, which got its start five years ago, is among the most widely used machine learning (ML) services in existence. Back in 2017 Sagemaker was a single service designed to help organizations use the cloud to train ML models. Much like how Amazon Web Services (AWS) has grown significantly over the last five years, so too has the number of ML services under the Sagemaker portfolio. In 2018, Amazon SageMaker GroundTruth added data labeling capabilities. In 2019, AWS expanded SageMaker with a number of services including SageMaker Studio, which provides an integrated developer environment (IDE) for data scientists to build ML application workflows. The SageMaker Data Wrangler service was announced in 2020 for data preparation and in 2021 new capabilities included the Clarify explainability and ML feature store services.
5年前に開始したAmazon Sagemakerは、存在する最も広く使用されている機械学習(ML)サービスの1つです。2017年にSagemakerは、組織がクラウドを使用してMLモデルをトレーニングするのを支援するために設計された単一のサービスでした。Amazon Web Services(AWS)が過去5年間で大幅に成長した方法と同じように、Sagemakerポートフォリオの下でMLサービスの数も同様です。2018年、Amazon Sagemaker Groundtruthはデータラベル付け機能を追加しました。2019年、AWSはSagemaker Studioを含む多くのサービスでSagemakerを拡大しました。SagemakerStudioは、データサイエンティストがMLアプリケーションワークフローを構築するための統合開発者環境(IDE)を提供します。Sagemaker Data Wrangler Serviceは2020年にデータ準備のために発表され、2021年に新しい機能にはClarify ExplainabilityとML機能ストアサービスが含まれていました。
AWS is continuing to add services to SageMaker, including a pair of announcements made yesterday, with new support for AWS Graviton cloud instances and multi-model endpoint support. During an AWS event on Oct. 26, Bratin Saha, VP and general manager of AI/ML at AWS, said there are over 100,000 customers from virtually every industry who make use of AWS’s cloud ML services.
AWSは、AWS Graviton Cloudインスタンスとマルチモデルエンドポイントサポートの新しいサポートを含め、昨日行われた発表のペアを含む、Sagemakerにサービスを追加し続けています。10月26日のAWSイベントで、AWSのAI/MLのゼネラルマネージャーであるBratin Sahaは、AWSのCloud MLサービスを利用しているほぼすべての業界から100,000人以上の顧客がいると述べました。
Low-Code/No-Code Summit Join today’s leading executives at the Low-Code/No-Code Summit virtually on November 9. Register for your free pass today.
ローコード/ノーコードサミット11月9日に実質的に低コード/ノーコードサミットの今日の主要な幹部に参加します。今日の無料パスに登録してください。
“Machine learning isn’t the future that we need to plan for, it’s the present that we need to harness now,” Bratin said.
「機械学習は、私たちが計画する必要がある未来ではありません。今、私たちが利用する必要があるのは現在です」とブラチンは言いました。
One of the things that has happened over the last five years of SageMaker adoption is an increase in scale for how models are trained and deployed.
過去5年間のセージメーカーの採用の間に起こったことの1つは、モデルの訓練と展開方法の規模の増加です。
To help organizations deal with the challenge of scaling, Bratin said that AWS has released the SageMaker multi-model endpoints (MME) capability.
組織がスケーリングの課題に対処するのを支援するために、Bratinは、AWSがSagemaker Multi-Modelエンドポイント(MME)機能をリリースしたと述べました。
“This allows a single GPU to host thousands of models,” Bratin said. “Many of the most common use cases for machine learning, such as personalization, require you to manage anywhere from a few hundred to hundreds of thousands of models.” For example, Bratin said that in the case of a taxi service, an organization might have custom models based on each city’s traffic pattern. He noted that in a traditional machine learning system, a customer would have to deploy one model per instance, which means they would have to deploy hundreds or thousands of instances. SageMaker MME changes that need, giving organizations the capability to host many models on a single instance, which lowers overall costs. Bratin said the MME service also handles all the work of orchestrating the ML model traffic and uses sophisticated caching algorithms to understand which model should be resident in memory at a particular time.
「これにより、単一のGPUが何千ものモデルをホストすることができます」とBratin氏は言います。「パーソナライズなど、機械学習の最も一般的なユースケースの多くは、数百から数十万のモデルのどこでも管理する必要があります。」たとえば、Bratinは、タクシーサービスの場合、組織は各都市の交通パターンに基づいてカスタムモデルを持っている可能性があると述べました。彼は、従来の機械学習システムでは、顧客はインスタンスごとに1つのモデルを展開する必要があるため、数百または数千のインスタンスを展開する必要があることを意味します。Sagemaker MMEはその必要性を変更し、組織が単一のインスタンスで多くのモデルをホストする機能を提供し、全体的なコストを削減します。Bratinは、MMEサービスがMLモデルトラフィックを調整するすべての作業も処理し、洗練されたキャッシュアルゴリズムを使用して、どのモデルが特定の時間にメモリに居住するかを理解すると述べました。
Among the many users of Amazon SageMaker services is Mueller Water Products.
Amazon Sagemaker Servicesの多くのユーザーの中には、Mueller Water Productsがあります。
Mueller Water Products is using Amazon SageMaker to help with its mission of limiting water loss. Using the ML service alongside its EchoShore-DX system for leak detection, the company has been able to achieve a 40% improvement in precision.
Mueller Water Productsは、Amazon Sagemakerを使用して、水損失を制限するという使命を支援しています。リーク検出のためにEchoshore-DXシステムとともにMLサービスを使用して、同社は精度を40%改善することができました。
元記事
Amazon SageMaker continues to expand machine learning (ML) use in the cloud