【海外ITニュース速報】信頼できるAIはもう手の届くところにある

【海外ITニュース速報】信頼できるAIはもう手の届くところにある

Trustworthy AI is now within reach

信頼できるAIはもう手の届くところにある

要約(英語):

artificial intelligence (AI) boom began in 2012 when Alex Krizhevsky, in collaboration with Ilya Sutskever and Geoffrey Hinton, created the AlexNet, which then won the ImageNet Large Scale Visual Recognition Challenge. The goal of that annual competition was to classify the 1.3 million high-resolution photographs in the training set into 1,000 different classes. The AlexNet neural network was the first entrant to break 75% accuracy in the competition. It also halved the existing error rate on ImageNet visual recognition to 15.3%

要約(日本語):

人工知能(AI)Boomは、Ilya SutskeverとGeoffrey Hintonと協力してAlex KrizhevskyがAlexnetを作成し、Imagenet大規模な視覚認識チャレンジを獲得した2012年に始まりました。その年次競争の目標は、トレーニングセットで1,000の異なるクラスに130万の高解像度写真を分類することでした。Alexnet Neural Networkは、競争の75%の精度を破った最初の参入者でした。また、Imagenetの視覚認識の既存のエラー率を15.3%に半分にしました

本文:

The artificial intelligence (AI) boom began in earnest in 2012 when Alex Krizhevsky, in collaboration with Ilya Sutskever and Geoffrey Hinton (who was Krizhevsky’s Ph.D.

人工知能(AI)ブームは、2012年にIlya SutskeverとGeoffrey Hinton(Krizhevskyの博士号だったGeoffrey Hintonと協力して、Alex Krizhevskyが本格的に始まりました。

advisor), created AlexNet, which then won the ImageNet Large Scale Visual Recognition Challenge.

Advisor)は、AlexNetを作成し、ImagENet大規模な視覚認識チャレンジを獲得しました。

The goal of that annual competition, which had begun in 1996, was to classify the 1.3 million high-resolution photographs in the ImageNet training set into 1,000 different classes.

1996年に始まったその年次競争の目標は、イメージネットトレーニングセットで1,000の異なるクラスに130万枚の高解像度の写真を分類することでした。

In other words, to correctly identify a dog and a cat.  AlexNet consisted of a deep learning neural network and was the first entrant to break 75% accuracy in the competition.

言い換えれば、犬と猫を正しく識別する。Alexnetは、深い学習ニューラルネットワークで構成され、競争で75%の精度を破った最初の参加者でした。

Perhaps more impressively, it halved the existing error rate on ImageNet visual recognition to 15.3%. It also established, arguably for the first time, that deep learning had substantive real-world capabilities.

おそらくより印象的なことに、Imagenetの視覚認識の既存のエラー率が15.3%に半分になりました。また、間違いなく初めて、深い学習が実質的な現実世界の能力を持っていることを確立しました。

Among other applications, this paved the way for the visual recognition systems used across industries from agriculture to manufacturing.

他のアプリケーションの中でも、これにより、農業から製造までの業界全体で使用される視覚認識システムへの道が開かれました。

This deep learning breakthrough triggered accelerated use of AI.

この深い学習のブレークスルーは、AIの加速された使用を引き起こしました。

But beyond the unquestioned genius of these and other early practitioners of deep learning, it was the confluence of several major technology trends that boosted AI.

しかし、これらの深い学習の他の初期の実践者の疑いのない天才を超えて、AIを後押ししたのはいくつかの主要な技術傾向の合流でした。

The internet, mobile phones and social media led to a data explosion, which is the fuel for AI.

インターネット、携帯電話、ソーシャルメディアは、AIの燃料であるデータ爆発につながりました。

Computing continued its metronome-like Moore’s Law advance of doubling performance about every 18 months, enabling the processing of vast amounts of data.

コンピューティングは、メトロノームのようなムーアの法律の前進を継続し、約18か月ごとにパフォーマンスを2倍にし、膨大な量のデータを処理できました。

The cloud provided ready access to data from anywhere and lowered the cost of large-scale computing.

クラウドは、どこからでもデータにすぐにアクセスでき、大規模なコンピューティングのコストを削減しました。

Software advances, largely open-source, led to a flourishing of AI code libraries available to anyone.  All of this led to an exponential increase in AI adoption and a gold rush mentality.

主にオープンソースであるソフトウェアの進歩により、誰でも利用できるAIコードライブラリが盛んになりました。これはすべて、AI採用の指数関数的な増加とゴールドラッシュメンタリティにつながりました。

Research from management consulting firm PwC shows global GDP could be up to 14% higher in 2030 as a result of AI, the equivalent of an additional $15.7 trillion — making it the biggest commercial opportunity in today’s economy.

管理コンサルティング会社PWCの調査によると、世界のGDPは、AIの結果として2030年に最大14%高くなる可能性があることを示しています。

According to Statista, global AI startup company funding has grown exponentially from $670 million in 2011 to $36 billion in 2020. Tortoise Intelligence reported that this more than doubled to $77 billion in 2021. In the past year alone, there have been over 50 million online mentions of AI in news and social media.

Statistaによると、グローバルAIスタートアップ企業の資金調達は、2011年の6億7,000万ドルから2020年の360億ドルに指数関数的に成長しました。ニュースおよびソーシャルメディアでのAIについての言及。

MetaBeat 2022 MetaBeat will bring together thought leaders to give guidance on how metaverse technology will transform the way all industries communicate and do business on October 4 in San Francisco, CA.

Metabeat 2022 Metabeatは、10月4日にカリフォルニア州サンフランシスコで、すべての産業がコミュニケーションとビジネスを行う方法をメタバーステクノロジーがどのように変化させるかについてのガイダンスを提供するために、Sound Leadersを集めます。

All of that is indicative of the groundswell of AI development and implementation.

これらはすべて、AI開発と実装のグラウンドスウェルを示しています。

Already present in many consumer applications, AI is now gaining broad adoption in the enterprise.

すでに多くの消費者アプリケーションに存在しているAIは、現在、企業で幅広い採用を獲得しています。

According to Gartner, 75% of businesses are expected to shift from piloting to operationalizing AI by 2024. It is not only deep learning that is driving this.

ガートナーによると、企業の75%は2024年までにパイロットからAIの運用に移行すると予想されています。これを推進しているのは深い学習だけではありません。

Deep learning is a subset of machine learning (ML), some of which has existed for several decades.

ディープラーニングは、機械学習(ML)のサブセットであり、その一部は数十年にわたって存在していました。

There are a large variety of ML algorithms in use, for everything from email spam filters to predictive maintenance for industrial and military equipment.

電子メールスパムフィルターから産業用および軍事機器の予測的メンテナンスまで、あらゆるものに使用されているMLアルゴリズムが多種多様です。

ML has benefitted from the same technology trends that are driving AI development and adoption.

MLは、AIの開発と採用を推進しているのと同じ技術傾向の恩恵を受けています。

With a rush to adoption have come some notable missteps.

養子縁組への急いで、いくつかの顕著な失敗が起こりました。

AI systems are essentially pattern recognition technologies that scour existing data, most of which has been collected over many years.

AIシステムは、基本的に既存のデータを精査するパターン認識技術であり、そのほとんどは長年にわたって収集されています。

If the datasets upon which AI acts contain biased data, the output from the algorithms can reflect that bias.

AIが動作するデータセットにバイアスデータが含まれている場合、アルゴリズムからの出力はそのバイアスを反映できます。

As a consequence, there have been chatbots that have gone terribly awry, hiring systems that reinforce gender stereotypes, inaccurate and possibly biased facial recognition systems that lead to wrongful arrests, and historical bias that leads to loan rejections.  These and other problems have prompted legitimate concerns and led to the field of AI Ethics.

結果として、性別のステレオタイプを強化する、ひどく不正確で雇用システム、不正確で偏った顔認識システムを雇用するシステムがあり、不法な逮捕につながる偏った顔認識システム、および融資の拒絶につながる歴史的偏見がありました。これらおよびその他の問題は、正当な懸念を促し、AI倫理の分野につながりました。

There is a clear need for Responsible AI, which is essentially a quest to do no harm with AI algorithms.

責任あるAIが明確に必要であり、これは本質的にAIアルゴリズムに害を及ぼさない探求です。

To do this requires that bias be eliminated from the datasets or otherwise mitigated.

これを行うには、バイアスをデータセットから排除するか、その他の方法で軽減する必要があります。

It is also possible that bias is unconsciously introduced into the algorithms themselves by those who develop them and needs to be identified and countered.

また、バイアスは、それらを発達させ、特定して反論する必要がある人々によってアルゴリズム自体に無意識に導入される可能性もあります。

And it requires that the operation of AI systems be explainable so that there is transparency in how the insights and decisions are reached.

また、AIシステムの動作が説明可能であるため、洞察と決定にどのように到達するかに透明性があります。

The goal of these endeavors is to ensure that AI systems not only do no specific harm but are trustworthy.

これらの努力の目標は、AIシステムが特定の害を及ぼさないだけでなく、信頼できることを保証することです。

As Forrester Research notes in a recent blog, this is critical for business, as it cannot afford to ignore the ethical debt that AI technology has accrued.

Forresterの調査が最近のブログで述べているように、これはビジネスにとって重要です。AIテクノロジーが発生した倫理的負債を無視する余裕はないからです。

Responsible AI is not easy, but is critically important to the future of the AI industry.

責任あるAIは簡単ではありませんが、AI業界の将来にとって非常に重要です。

There are new applications using AI coming online all the time where this could be an issue, such as determining which U.S.

AIを使用してAIを使用してオンラインで来る新しいアプリケーションがあります。これは、どの米国を決定するなど、問題になる可能性があります。

Army candidates are deserving of promotion.

陸軍候補者は昇進に値します。

Recognizing that the problem exists has focused considerable efforts over the last few years on developing corrective measures.

問題が存在することを認識して、ここ数年にわたって是正措置の開発にかなりの努力が集中しています。

There is good news on this front, as techniques and tools have been developed to mitigate algorithm bias and other problems at different points in AI development and implementation, whether in the original design, in deployment or after it is in production.

この面では、元の設計、展開、生産後のAI開発と実装のさまざまなポイントでアルゴリズムのバイアスやその他の問題を軽減するための技術とツールが開発されているため、この面には朗報があります。

These capabilities are leading to the emerging field of algorithmic auditing and assurance which will build trust in AI systems.

これらの機能は、AIシステムへの信頼を構築するアルゴリズム監査と保証の新たな分野につながります。

Besides bias, there are other issues in building Trustworthy AI, including the ability to explain how an algorithm reaches its recommendations and whether the results are replicable and accurate, ensure privacy and data protection, and secure against adversarial attack.

バイアスに加えて、アルゴリズムが推奨事項にどのように到達するか、結果が複製可能かつ正確であるかどうかを説明する能力など、信頼できるAIの構築には他の問題があります。

The auditing and assurance field will address all these issues, as found in research done by Infosys and the University College of London.

監査および保証フィールドは、Infosysとロンドン大学大学が行った研究で見られるように、これらすべての問題に対処します。

The purpose is to provide standards, practical codes and regulations to assure users of the safety and legality of algorithmic systems.

目的は、アルゴリズムシステムの安全性と合法性をユーザーに保証するための標準、実用的なコード、規制を提供することです。

There are four primary activities involved.  Development: An audit will have to account for the process of development and documentation of an algorithmic system.

4つの主要な活動が関係しています。開発:監査は、アルゴリズムシステムの開発と文書化のプロセスを考慮する必要があります。

Assessment: An audit will have to evaluate an algorithmic system’s behaviors and capacities.

評価:監査は、アルゴリズムシステムの動作と能力を評価する必要があります。

Mitigation: An audit will have to recommend service and improvement processes for addressing high-risk features of algorithmic systems.

緩和:監査は、アルゴリズムシステムの高リスク機能に対処するためのサービスと改善プロセスを推奨する必要があります。

Assurance: An audit will be aimed at providing a formal declaration that an algorithmic system conforms to a defined set of standards, codes of practice or regulations.

保証:監査は、アルゴリズムシステムが定義された一連の標準、実践規範、または規制に準拠するという正式な宣言を提供することを目的としています。

Ideally, a business would include these concepts from the beginning of an AI project to protect itself and its customers.

理想的には、ビジネスには、AIプロジェクトの開始時からこれらの概念を含めて、自分自身とその顧客を保護します。

If this is widely implemented, the result would produce an ecosystem of Trustworthy AI and Responsible AI.

これが広く実装されている場合、結果は信頼できるAIおよび責任あるAIのエコシステムを生成します。

In doing so, algorithmic systems would be properly appraised, all plausible measures for reducing or eliminating risk would be undertaken, and users, providers and third parties would be assured of the systems’ safety.  Only a decade ago, AI was practiced mostly by a small group of academics.

そうすることで、アルゴリズムシステムが適切に評価され、リスクを削減または排除するためのすべてのもっともらしい措置が実施され、ユーザー、プロバイダー、および第三者がシステムの安全性を保証します。わずか10年前、AIは主に学者の小さなグループによって実践されていました。

The development and adoption of these technologies has since expanded dramatically.

これらの技術の開発と採用は、その後劇的に拡大しました。

For all the considerable advances, there have been shortcomings.

すべてのかなりの進歩について、欠点がありました。

Many of these can be addressed and resolved with algorithmic auditing and assurance.

これらの多くは、アルゴリズム監査と保証で対処し、解決できます。

With the wild ride of AI over the last 10 years, this is no small accomplishment.  Bali (Balakrishna) DR is senior vice president, service offering head — ECS, AI and automation at Infosys.

過去10年間のAIのワイルドライドで、これは小さな成果ではありません。Bali(Balakrishna)DRは、InfosysのECS、AI、Ai、Ai、自動化を提供するサービス担当上級副社長です。

DataDecisionMakers is where experts, including the technical people doing data work, can share data-related insights and innovation.

DataDecisionMakersは、データワークを行っている技術者を含む専門家がデータ関連の洞察と革新を共有できる場所です。

元記事

https://venturebeat.com/ai/trustworthy-ai-is-now-within-reach/

Newsカテゴリの最新記事