【海外ITニュース速報】独学で学んだAIは、人間の脳と多くの共通点を持つかもしれない

【海外ITニュース速報】独学で学んだAIは、人間の脳と多くの共通点を持つかもしれない

Self-Taught AI May Have a Lot in Common With the Human Brain

独学で学んだAIは、人間の脳と多くの共通点を持つかもしれない

要約(英語):

artificial intelligence systems have been taught using labeled data for decades. An image might be labeled “tabby cat” or “tiger cat”, for example, to “train” an artificial neural network to correctly distinguish a tabby from a tiger. “They don’t really learn the material, but they do well on the test,” said a computer scientist

要約(日本語):

人工知能システムは、数十年にわたってラベル付きデータを使用して教えられてきました。たとえば、「Tabby Cat」または「Tiger Cat」とラベル付けされているのは、たとえば、人工ニューラルネットワークを「訓練」して、TabbyをTigerと正しく区別することができます。「彼らは本当に資料を学んでいないが、彼らはテストでうまくやっている」とコンピューターの科学者は言った

本文:

Anil Ananthaswamy For a decade now, many of the most impressive artificial intelligence systems have been taught using a huge inventory of labeled data.

Anil Ananthaswamyは10年間、最も印象的な人工知能システムの多くが、ラベル付きデータの膨大なインベントリを使用して教えられてきました。

An image might be labeled “tabby cat” or “tiger cat,” for example, to “train” an artificial neural network to correctly distinguish a tabby from a tiger.

たとえば、「Tabby Cat」または「Tiger Cat」とラベル付けされているのは、たとえば、人工ニューラルネットワークを「訓練」して、TabbyをTigerと正しく区別するためです。

The strategy has been both spectacularly successful and woefully deficient.

戦略は壮大に成功しており、ひどく不足しています。

Original story reprinted with permission from Quanta Magazine, an editorially independent publication of the Simons Foundation whose mission is to enhance public understanding of science by covering research develop­ments and trends in mathe­matics and the physical and life sciences.

オリジナルストーリーは、数学と物理科学および生命科学の研究開発と傾向をカバーすることにより、科学の一般的な理解を高めることを使命とするサイモンズ財団の編集的に独立した出版物であるQuanta Magazineの許可を得て転載しました。

Such “supervised” training requires data laboriously labeled by humans, and the neural networks often take shortcuts, learning to associate the labels with minimal and sometimes superficial information.

このような「監視された」トレーニングには、人間によって悩まされてラベル付けされたデータが必要であり、ニューラルネットワークはしばしばショートカットを取り、ラベルを最小限の、時には表面的な情報に関連付けることを学びます。

For example, a neural network might use the presence of grass to recognize a photo of a cow, because cows are typically photographed in fields.

たとえば、ニューラルネットワークは草の存在を使用して牛の写真を認識する可能性があります。これは、牛が通常畑で撮影されるためです。

“We are raising a generation of algorithms that are like undergrads [who] didn’t come to class the whole semester and then the night before the final, they’re cramming,” said Alexei Efros, a computer scientist at the University of California, Berkeley.

「私たちは学部生のような世代のアルゴリズムを提起しています[学部生は学期全体に来なかったので、決勝前の夜、彼らは詰め込んでいます」、バークレー。

“They don’t really learn the material, but they do well on the test.” For researchers interested in the intersection of animal and machine intelligence, moreover, this “supervised learning” might be limited in what it can reveal about biological brains.

「彼らは本当に資料を学んでいませんが、テストでうまくいきます。」さらに、動物と機械の知能の交差点に関心のある研究者にとって、さらに、この「監視された学習」は、生物学的脳について明らかにできるものが制限される可能性があります。

Animals—including humans—don’t use labeled data sets to learn.

人間を含む動物は、学習するためにラベル付きのデータセットを使用しないでください。

For the most part, they explore the environment on their own, and in doing so, they gain a rich and robust understanding of the world.

ほとんどの場合、彼らはそれ自体で環境を探求し、そうすることで、彼らは世界を豊かで堅牢な理解を得ています。

Now some computational neuroscientists have begun to explore neural networks that have been trained with little or no human-labeled data.

現在、一部の計算神経科学者は、人間に標識されたデータをほとんどまたはまったくない状態で訓練されているニューラルネットワークを探索し始めています。

These “self-supervised learning” algorithms have proved enormously successful at modeling human language and, more recently, image recognition.

これらの「自己監視学習」アルゴリズムは、人間の言語、そして最近では画像認識のモデル化に大成功を収めていることが証明されています。

In recent work, computational models of the mammalian visual and auditory systems built using self-supervised learning models have shown a closer correspondence to brain function than their supervised-learning counterparts.

最近の研究では、自己監視学習モデルを使用して構築された哺乳類の視覚および聴覚システムの計算モデルは、監視された学習対応よりも脳機能に緊密な対応を示しています。

To some neuroscientists, it seems as if the artificial networks are beginning to reveal some of the actual methods our brains use to learn.

一部の神経科学者にとって、人工ネットワークは、脳が学習するために使用する実際の方法のいくつかを明らかにし始めているようです。

Brain models inspired by artificial neural networks came of age about 10 years ago, around the same time that a neural network named AlexNet revolutionized the task of classifying unknown images.

人工ニューラルネットワークに触発された脳モデルは、約10年前に年齢になりましたが、ALEXNETという名前のニューラルネットワークが未知の画像を分類するタスクに革命をもたらしたのとほぼ同じです。

That network, like all neural networks, was made of layers of artificial neurons, computational units that form connections to one another that can vary in strength, or “weight.” If a neural network fails to classify an image correctly, the learning algorithm updates the weights of the connections between the neurons to make that misclassification less likely in the next round of training.

そのネットワークは、すべてのニューラルネットワークと同様に、人工ニューロンの層、強度または「重量」が異なる可能性のある互いに接続を形成する計算単位の層でできていました。ニューラルネットワークが画像を正しく分類できない場合、学習アルゴリズムはニューロン間の接続の重みを更新して、次のトレーニングでその誤分類を低くします。

The algorithm repeats this process many times with all the training images, tweaking weights, until the network’s error rate is acceptably low.

アルゴリズムは、ネットワークのエラー率が許容できるほど低くなるまで、すべてのトレーニング画像でこのプロセスを何度も繰り返し、ウェイトを微調整します。

Around the same time, neuroscientists developed the first computational models of the primate visual system, using neural networks like AlexNet and its successors.

ほぼ同時に、神経科学者は、AlexNetやその後継者などのニューラルネットワークを使用して、霊長類の視覚システムの最初の計算モデルを開発しました。

The union looked promising: When monkeys and artificial neural nets were shown the same images, for example, the activity of the real neurons and the artificial neurons showed an intriguing correspondence.

組合は有望に見えました。サルと人工ニューラルネットに同じ画像が示されたとき、たとえば、実際のニューロンと人工ニューロンの活性は興味深い対応を示しました。

Artificial models of hearing and odor detection followed.

聴覚と臭気の検出の人工モデルが続きました。

But as the field progressed, researchers realized the limitations of supervised training.

しかし、分野が進むにつれて、研究者は監督されたトレーニングの限界に気付きました。

For instance, in 2017, Leon Gatys, a computer scientist then at the University of Tübingen in Germany, and his colleagues took an image of a Ford Model T, then overlaid a leopard skin pattern across the photo, generating a bizarre but easily recognizable image.

たとえば、2017年に、その後ドイツのチュービンゲン大学のコンピューター科学者であるレオンガティスがフォードモデルTの画像を撮影し、写真全体にヒョウの皮膚パターンをオーバーレイして、奇妙だが簡単に認識できるイメージを生成しました。。

A leading artificial neural network correctly classified the original image as a Model T, but considered the modified image a leopard.

主要な人工ニューラルネットワークは、元の画像をモデルTとして正しく分類しましたが、修正された画像はヒョウと見なされました。

It had fixated on the texture and had no understanding of the shape of a car (or a leopard, for that matter).

それはテクスチャーに固執していて、車の形状(またはヒョウ、またはそのことについて)を理解していませんでした。

Self-supervised learning strategies are designed to avoid such problems.

自己教師の学習戦略は、そのような問題を回避するように設計されています。

In this approach, humans don’t label the data.

このアプローチでは、人間はデータにラベルを付けません。

Rather, “the labels come from the data itself,” said Friedemann Zenke, a computational neuroscientist at the Friedrich Miescher Institute for Biomedical Research in Basel, Switzerland.

むしろ、「ラベルはデータ自体から来ています」と、スイスのバーゼルの生物医学研究のためのフリードリッヒ・ミーシャー研究所の計算神経科学者であるフリーデマン・ゼンケは述べています。

Self-supervised algorithms essentially create gaps in the data and ask the neural network to fill in the blanks.

自己教師のアルゴリズムは、基本的にデータのギャップを作成し、ニューラルネットワークに空白を埋めるように依頼します。

In a so-called large language model, for instance, the training algorithm will show the neural network the first few words of a sentence and ask it to predict the next word.

たとえば、いわゆる大規模な言語モデルでは、トレーニングアルゴリズムはニューラルネットワークに文の最初のいくつかの単語を表示し、次の単語を予測するように依頼します。

When trained with a massive corpus of text gleaned from the internet, the model appears to learn the syntactic structure of the language, demonstrating impressive linguistic ability—all without external labels or supervision.

インターネットから収集された大規模なテキストのコーパスで訓練されると、モデルは言語の構文構造を学習しているように見え、外部のラベルや監督なしで印象的な言語能力を示します。

Featured Video Every Trick a Pro GeoGuessr Player Uses to Win Ramin Skibba Angela Watercutter Lily Hay Newman Julian Chokkattu A similar effort is underway in computer vision.

特集ビデオプロジオグスルプレーヤーが使用するすべてのトリックラミンスキバアンジェラウォーターカッターリリーヘイニューマンジュリアンチョッカットは、コンピュータービジョンで同様の努力が進行中です。

In late 2021, Kaiming He and colleagues revealed their “masked auto-encoder,” which builds on a technique pioneered by Efros’ team in 2016. The self-supervised learning algorithm randomly masks images, obscuring almost three-quarters of each one.

2021年後半、Kaiming Heと同僚は、2016年にEFROSのチームが開拓したテクニックに基づいている「マスクされた自動エンコーダー」を明らかにしました。

The masked auto-encoder turns the unmasked portions into latent representations—compressed mathematical descriptions that contain important information about an object.

マスクされた自動エンコーダーは、マスクされていない部分を潜在的な表現に変換します。これは、オブジェクトに関する重要な情報を含む数学的な説明です。

(In the case of an image, the latent representation might be a mathematical description that captures, among other things, the shape of an object in the image.) A decoder then converts those representations back into full images.

(画像の場合、潜在表現は、とりわけ、画像内のオブジェクトの形状をキャプチャする数学的な説明である可能性があります。)デコーダーは、それらの表現を完全な画像に戻します。

The self-supervised learning algorithm trains the encoder-decoder combination to turn masked images into their full versions.

自己教師の学習アルゴリズムは、エンコーダデコーダーの組み合わせをトレーニングして、マスクされた画像を完全なバージョンに変換します。

Any differences between the real images and the reconstructed ones get fed back into the system to help it learn.

実際の画像と再構築された画像と再構築された画像の違いは、それが学習するのを助けるためにシステムに供給されます。

This process repeats for a set of training images until the system’s error rate is suitably low.

このプロセスは、システムのエラー率が適切に低くなるまで、一連のトレーニング画像を繰り返します。

In one example, when a trained masked auto-encoder was shown a previously unseen image of a bus with almost 80 percent of it obscured, the system successfully reconstructed the structure of the bus.

一例では、訓練されたマスクされた自動エンコーダーに、それのほぼ80%が不明瞭になったバスの以前に見えなかった画像が表示されたとき、システムはバスの構造を正常に再構築しました。

“This is a very, very impressive result,” said Efros.

「これは非常に印象的な結果です」とEFROSは言いました。

The latent representations created in a system such as this appear to contain substantially deeper information than previous strategies could include.

このようなシステムで作成された潜在表現には、以前の戦略が含めるよりも実質的に深い情報が含まれているようです。

The system might learn the shape of a car, for example—or a leopard—and not just their patterns.

システムは、たとえば、そのパターンだけでなく、車の形やヒョウの形を学ぶことができます。

“And this is really the fundamental idea of self-supervised learning—you build up your knowledge from the bottom up,” said Efros.

「そして、これは本当に自己教師の学習の基本的なアイデアです。あなたはあなたの知識をボトムアップから築き上げます」とEFROSは言いました。

No last-minute cramming to pass tests.

テストに合格するための土壇場の詰め込みはありません。

In systems such as this, some neuroscientists see echoes of how we learn.

このようなシステムでは、一部の神経科学者は、私たちがどのように学習するかについてのエコーを見ています。

“I think there’s no doubt that 90 percent of what the brain does is self-supervised learning,” said Blake Richards, a computational neuroscientist at McGill University and Mila, the Quebec Artificial Intelligence Institute.

「脳が行うことの90%が自己監視学習であることは間違いないと思います」と、マギル大学の計算神経科学者であるブレイク・リチャーズとケベック人工知能研究所のミラは述べています。

Biological brains are thought to be continually predicting, say, an object’s future location as it moves, or the next word in a sentence, just as a self-supervised learning algorithm attempts to predict the gap in an image or a segment of text.

生物学的脳は、たとえば、オブジェクトの将来の位置が移動するときに継続的に予測していると考えられていると考えられています。自己監視学習アルゴリズムが画像またはテキストのギャップを予測しようとするのと同じように、文の次の単語です。

And brains learn from their mistakes on their own, too—only a small part of our brain’s feedback comes from an external source saying, essentially, “wrong answer.” For example, consider the visual systems of humans and other primates.

そして、脳は自分の間違いからも学びます。脳のフィードバックのごく一部は、本質的に「間違った答え」と言っている外部のソースから来ています。たとえば、人間や他の霊長類の視覚システムを検討してください。

These are the best studied of all animal sensory systems, but neuroscientists have struggled to explain why they include two separate pathways: the ventral visual stream, which is responsible for recognizing objects and faces, and the dorsal visual stream, which processes movement (the “what” and “where” pathways, respectively).

これらはすべての動物感覚システムの中で最もよく研究されていますが、神経科学者は、物体と顔を認識する責任のある腹側の視覚流と、動きを処理する背側の視覚流:2つの別々の経路を含める理由を説明するのに苦労しています(「」それぞれ「場所」と「場所」経路。

Richards and his team created a self-supervised model that hints at an answer.

リチャーズと彼のチームは、答えを示唆する自己監視モデルを作成しました。

They trained an AI that combined two different neural networks: The first, called the ResNet architecture, was designed for processing images; the second, known as a recurrent network, could keep track of a sequence of prior inputs to make predictions about the next expected input.

彼らは、2つの異なるニューラルネットワークを組み合わせたAIを訓練しました。最初のリセネットアーキテクチャと呼ばれるものは、画像を処理するために設計されました。再発ネットワークとして知られる2番目のものは、以前の入力のシーケンスを追跡して、次の予想入力について予測することができます。

To train the combined AI, the team started with a sequence of, say, 10 frames from a video and let the ResNet process them one by one.

組み合わせたAIをトレーニングするために、チームはたとえばビデオから10フレームのシーケンスで開始し、ResNetがそれらを1つずつ処理させました。

The recurrent network then predicted the latent representation of the 11th frame, while not simply matching the first 10 frames.

再発ネットワークは、最初の10フレームを単に一致させるのではなく、11番目のフレームの潜在的な表現を予測しました。

The self-supervised learning algorithm compared the prediction to the actual value and instructed the neural networks to update their weights to make the prediction better.

自己教師の学習アルゴリズムは、予測を実際の値と比較し、ニューラルネットワークに重みを更新して予測を改善するよう指示しました。

Richards’ team found that an AI trained with a single ResNet was good at object recognition, but not at categorizing movement.

リチャーズのチームは、単一のレストネットで訓練されたAIがオブジェクト認識に優れているが、動きの分類ではないことを発見しました。

But when they split the single ResNet into two, creating two pathways (without changing the total number of neurons), the AI developed representations for objects in one and for movement in the other, enabling downstream categorization of these properties—just as our brains likely do.

しかし、単一のresNetを2つに分割し、2つの経路を作成すると(ニューロンの総数を変更せずに)、AIは一方のオブジェクトの表現を開発し、他方の動きの表現を開発し、これらの特性の下流の分類を可能にします。行う。

To test the AI further, the team showed it a set of videos that researchers at the Allen Institute for Brain Science in Seattle had previously shown to mice.

AIをさらにテストするために、チームは、シアトルのアレン脳科学研究所の研究者が以前にマウスに示したビデオセットを示しました。

Like primates, mice have brain regions specialized for static images and for movement.

霊長類のように、マウスには静的画像や動きに特化した脳領域があります。

The Allen researchers recorded the neural activity in the mouse visual cortex as the animals watched the videos.

アレンの研究者たちは、動物がビデオを見たときに、マウスの視覚皮質で神経活動を記録しました。

Here too, Richards’ team found similarities in the way the AI and the living brains reacted to the videos.

ここでも、リチャーズのチームは、AIと生きている脳がビデオに反応する方法に類似点を見つけました。

During training, one of the pathways in the artificial neural network became more similar to the ventral, object-detecting regions of the mouse’s brain, and the other pathway became similar to the movement-focused dorsal regions.

トレーニング中、人工ニューラルネットワークの経路の1つは、マウスの脳の腹側の物体検出領域により類似しており、もう1つの経路は動きに焦点を当てた背側領域に似ていました。

The results suggest that our visual system has two specialized pathways because they help predict the visual future, said Richards; a single pathway isn’t good enough.

結果は、視覚システムが視覚の未来を予測するのに役立つため、2つの特殊な経路があることを示唆しています、とリチャーズは言いました。単一の経路では十分ではありません。

Models of the human auditory system tell a similar story.

人間の聴覚システムのモデルも同様の話をします。

In June, a team led by Jean-Rémi King, a research scientist at Meta AI, trained an AI called Wav2Vec 2.0, which uses a neural network to transform audio into latent representations.

6月、メタAIの研究科学者であるジャンレミキングが率いるチームは、ニューラルネットワークを使用してオーディオを潜在表現に変換するWAV2VEC 2.0と呼ばれるAIを訓練しました。

The researchers mask some of these representations, which then feed into another component neural network called a transformer.

研究者は、これらの表現の一部をマスクし、変圧器と呼ばれる別のコンポーネントニューラルネットワークにフィードします。

During training, the transformer predicts the masked information.

トレーニング中、トランスはマスクされた情報を予測します。

In the process the entire AI learns to turn sounds into latent representations—again, no labels needed.

その過程で、AI全体が音を潜在的な表現に変えることを学びます。

The team used about 600 hours of speech data to train the network, “which is approximately what a kid would get in [the] first two years of experience,” said King.

チームは、約600時間の音声データを使用してネットワークを訓練しました。「これは、子供が最初の2年間の経験で得られるものです」とキングは言いました。

Once the system was trained, the researchers played it sections of audiobooks in English, French and Mandarin.

システムが訓練されると、研究者は英語、フランス語、マンダリンでオーディオブックのセクションを演奏しました。

The researchers then compared the AI’s performance against data from 412 people—a mix of native speakers of the three languages who had listened to the same stretches of audio while having their brains imaged in an fMRI scanner.

その後、研究者は、AIのパフォーマンスを412人のデータと比較しました。これは、同じオーディオを聞いている3つの言語のネイティブスピーカーのミックスであり、脳をfMRIスキャナーで画像化しました。

King said that his neural network and the human brains, despite the noisy and low-resolution fMRI images, “not only correlate with one another, but they correlate in a systematic fashion”: The activity in the early layers of the AI aligns with activity in the primary auditory cortex, whereas the activity of the AI’s deepest layers aligns with activity in the higher layers in the brain, in this case the prefrontal cortex.

キングは、彼のニューラルネットワークと人間の脳は、ノイズの多い低解像度のfMRI画像にもかかわらず、「互いに相関するだけでなく、体系的な方法で相関している」と述べました。一次聴覚皮質では、AIの最も深い層の活動は、脳内のより高い層の活動、この場合は前頭前野の活動と整列しています。

“It’s really beautiful data,” Richards said.

「それは本当に美しいデータです」とリチャーズは言いました。

“It’s not conclusive, but [it’s] another compelling piece of evidence to suggest that, indeed, the way we learn language is in large part by trying to predict next things that will be said.” Not everyone is convinced.

「それは決定的ではありませんが、実際に言語を学ぶ方法は、次のことを予測しようとすることによって言語を学ぶ方法が主にあることを示唆する別の説得力のある証拠です。」誰もが確信しているわけではありません。

Josh McDermott, a computational neuroscientist at the Massachusetts Institute of Technology, has worked on models of vision and auditory perception using both supervised and self-supervised learning.

マサチューセッツ工科大学の計算神経科学者であるジョシュ・マクダーモットは、監視された学習と自己監視学習の両方を使用して、ビジョンと聴覚認識のモデルに取り組んできました。

His lab has designed what he calls “metamers,” synthesized audio and visual signals that, to a human, are just inscrutable noise.

彼の研究室は、彼が「メタマー」と呼ぶものを設計しました。これは、人間にとって、単なる不可解なノイズであるオーディオと視覚的な信号を合成しました。

To an artificial neural network, however, metamers appear indistinguishable from real signals.

ただし、人工ニューラルネットワークにとって、メタマーは実際の信号と区別できないように見えます。

This suggests that the representations that form in the neural network’s deeper layers, even with self-supervised learning, don’t match the representations in our brains.

これは、ニューラルネットワークのより深い層に形成される表現が、自己監視された学習であっても、脳の表現と一致しないことを示唆しています。

These self-supervised learning approaches “are progress in the sense that you are able to learn representations that can support a lot of recognition behaviors without needing all these labels,” McDermott said.

これらの自己監視学習アプローチは、「これらすべてのラベルを必要とせずに多くの認識行動をサポートできる表現を学ぶことができるという意味での進歩です」とマクダーモットは言いました。

“But they still have a lot of the pathologies of supervised models.” The algorithms themselves also need more work.

「しかし、彼らはまだ監視されたモデルの病理をたくさん持っています。」アルゴリズム自体には、より多くの作業も必要です。

For example, in Meta AI’s Wav2Vec 2.0, the AI only predicts latent representations for a few tens of milliseconds’ worth of sound—less time than it takes to utter a perceptually distinct noise, let alone a word.

たとえば、Meta AIのWAV2VEC 2.0では、AIは数十ミリ秒分の音の潜在表現のみを予測します。これは、単語は言うまでもなく、知覚的に異なるノイズを発するのにかかるよりも時間がかかりません。

“There are many things to be done to do something similar to what the brain does,” said King.

「脳がしていることに似たことをするためにやるべきことがたくさんあります」とキングは言いました。

Truly understanding brain function is going to require more than self-supervised learning.

脳機能を真に理解するには、自己教師の学習以上のものが必要になります。

For one thing, the brain is full of feedback connections, while current models have few such connections, if any.

1つには、脳にはフィードバック接続が満載されていますが、現在のモデルにはそのような接続がほとんどありません。

An obvious next step would be to use self-supervised learning to train highly recurrent networks — a difficult process—and see how the activity in such networks compares to real brain activity.

明らかな次のステップは、自己監視学習を使用して、非常に再発性のネットワーク(困難なプロセス)をトレーニングし、そのようなネットワークの活動が実際の脳の活動とどのように比較されるかを確認することです。

The other crucial step would be to match the activity of artificial neurons in self-supervised learning models to the activity of individual biological neurons.

もう1つの重要なステップは、自己監視学習モデルにおける人工ニューロンの活性を個々の生物学的ニューロンの活性に合わせることです。

“Hopefully, in the future, [our] results will be confirmed with single-cell recordings as well,” said King.

「うまくいけば、将来的には、[私たちの]結果もシングルセルの録音で確認されるでしょう」とキングは言いました。

If the observed similarities between brains and self-supervised learning models hold for other sensory tasks, it’ll be an even stronger indication that whatever magic our brains are capable of requires self-supervised learning in some form.

脳と自己監視学習モデルの間の観察された類似性が他の感覚タスクに当てはまる場合、私たちの脳が何ができるものが何であれ、何らかの形で自己監視学習を必要とすることはさらに強力な兆候になるでしょう。

“If we do find systematic similarities between vastly different systems, it [would] suggest that perhaps there are not that many ways to process information in an intelligent fashion,” said King.

「非常に異なるシステム間で体系的な類似点を見つけた場合、それはおそらく情報をインテリジェントな方法で処理する方法がそれほど多くないことを示唆しているでしょう」とキングは言いました。

“At least, that’s sort of the beautiful hypothesis we would like to work with.” Original story reprinted with permission from Quanta Magazine, an editorially independent publication of the Simons Foundation whose mission is to enhance public understanding of science by covering research developments and trends in mathematics and the physical and life sciences.

「少なくとも、それは私たちが協力したい美しい仮説のようなものです。」オリジナルストーリーは、数学と物理科学および生命科学の研究開発と傾向をカバーすることにより、科学の一般的な理解を高めることを使命とするサイモンズ財団の編集的に独立した出版物であるQuanta Magazineの許可を得て転載しました。

元記事

https://www.wired.com/story/self-taught-ai-may-have-a-lot-in-common-with-the-human-brain/

Newsカテゴリの最新記事