【海外ITニュース速報】動物との対話を可能にする技術

【海外ITニュース速報】動物との対話を可能にする技術

How tech is helping us talk to animals

動物との対話を可能にする技術

要約(英語):

researchers are using drones, AI, and digital recorders to create a “zoological version of Google Translate” to explain how our digital world is changing. Bats chitter and babble in ultrasound, elephants rumble infrasonic secrets to each other, and coral reefs are aquatic clubs. “Digital technologies, so often associated with our alienation from nature, are offering us an opportunity to listen to nonhumans in powerful ways,” Karen Bakker, in her new book, wrote. “Digital devices function like planetary-scale hearing aids,” she added.

要約(日本語):

研究者は、ドローン、AI、およびデジタルレコーダーを使用して、「Google Translateの動物学的バージョン」を作成して、デジタルの世界がどのように変化しているかを説明しています。コウモリは超音波でチッターとせせらぎ、象は互いに骨折を鳴らし、サンゴ礁は水生クラブです。「自然からの疎外に関連するデジタルテクノロジーは、強力な方法で非人間を聴く機会を提供してくれます」と彼女の新しい本でカレン・バッカーは書いています。「デジタルデバイスは惑星規模の補聴器のように機能します」と彼女は付け加えました。

本文:

Researchers are using drones, AI, and digital recorders to create a “zoological version of Google Translate.”

研究者は、ドローン、AI、およびデジタルレコーダーを使用して、「Google Translateの動物学的バージョン」を作成しています。

Uncovering and explaining how our digital world is changing — and changing us.

私たちのデジタルの世界がどのように変化しているかを明らかにして説明し、私たちを変えます。

The world around us is vibrating with sounds we cannot hear. Bats chitter and babble in ultrasound; elephants rumble infrasonic secrets to each other; coral reefs are aquatic clubs, hopping with the cracks and hisses and clicks of marine life. For centuries, we didn’t even know those sounds existed. But as technology has advanced, so has our capacity to listen. Today, tools like drones, digital recorders, and artificial intelligence are helping us listen to the sounds of nature in unprecedented ways, transforming the world of scientific research and raising a tantalizing prospect: Someday soon, computers might allow us to talk to animals. In some ways, that has already begun. “Digital technologies, so often associated with our alienation from nature, are offering us an opportunity to listen to nonhumans in powerful ways, reviving our connection to the natural world,” writes Karen Bakker in her new book, The Sounds of Life: How Digital Technology Is Bringing Us Closer to the Worlds of Animals and Plants. Automated listening posts have been set up in ecosystems around the planet, from rainforests to the depths of the ocean, and miniaturization has allowed scientists to stick microphones onto animals as small as honeybees. “Combined, these digital devices function like a planetary-scale hearing aid: enabling humans to observe and study nature’s sounds beyond the limits of our sensory capabilities,” Bakker writes.

私たちの周りの世界は、私たちが聞くことができない音で振動しています。コウモリは、超音波でチッターとせせらぎをします。象は互いにインフラソニックな秘密を鳴らします。サンゴ礁は水生クラブであり、亀裂とヒス、および海洋生物のクリックで飛び回っています。何世紀もの間、私たちはそれらの音が存在することさえ知りませんでした。しかし、テクノロジーが進歩するにつれて、聞く能力もあります。今日、ドローン、デジタルレコーダー、人工知能などのツールは、前例のない方法で自然の音に耳を傾け、科学研究の世界を変え、食欲をそそる見込み客を育てるのに役立ちます。いつか、コンピューターは動物と話すことができるかもしれません。いくつかの点で、それはすでに始まっています。 「自然からの疎外に関連するデジタルテクノロジーは、自然界とのつながりを復活させる強力な方法で非人間を聴く機会を提供してくれます」と彼女の新しい本「The Sounds of Life:How Digital」テクノロジーは、私たちを動物や植物の世界に近づけています。自動リスニングポストは、熱帯雨林から海の深さまで、地球周辺の生態系に設置されており、小型化により科学者はミツバチのような小さな動物にマイクを貼り付けることができました。 「組み合わせて、これらのデジタルデバイスは惑星規模の補聴器のように機能します。人間が感覚能力の限界を超えて自然の音を観察し、研究できるようにします」とバッカーは書いています。

All those devices create a ton of data, which would be impossible to go through manually. So researchers in the fields of bioacoustics (which studies sounds made by living organisms) and ecoacoustics (which studies the sounds made by entire ecosystems) are turning to artificial intelligence to sift through the piles of recordings, finding patterns that might help us understand what animals are saying to each other. There are now databases of whale songs and honeybee dances, among others, that Bakker writes could one day turn into “a zoological version of Google Translate.” But it’s important to remember that we aren’t necessarily discovering these sounds for the first time. As Bakker points out in her book, Indigenous communities around the world have long been aware that animals have their own forms of communication, while the Western scientific establishment has historically dismissed the idea of animal communication outright. Many of the researchers Bakker highlights in her book faced intense pushback from the scientific community when they suggested whales, elephants, turtles, bats, and even plants made sounds and even might have languages of their own. They spent nearly as much time pushing back against the pushback as they did conducting research. While that seems to be changing with our increased understanding of animals, Bakker cautions that the ability to communicate with animals stands to be either a blessing or a curse, and we must think carefully about how we will use our technological advancements to interact with the natural world. We can use our understanding of our world’s sonic richness to gain a sense of kinship with nature and even potentially heal some of the damage we have wrought, but we also run the risk of using our newfound powers to assert our domination over animals and plants. We are on the edge of a revolution in how we interact with the world around us, Bakker told Recode. Now, we must decide which path we will follow in the years ahead. This interview has been edited for length and clarity. Let’s start with the big idea that you lay out in your introduction: We’re using technologies like AI to talk to animals. What does that look like?

これらのデバイスはすべて、大量のデータを作成します。これは、手動で実行することは不可能です。したがって、生体音響学の分野の研究者(生物によって作られた音を研究する)と生態具(生態系全体によって作られた音を研究する)は、人工知能に向けて録音の山をふるいにかけ、動物を理解するのに役立つパターンを見つけることができます。お互いに言っています。現在、クジラの歌やハニービーダンスのデータベースがあります。とりわけ、バッカーはいつか「動物学的バージョンのGoogle Translate」になる可能性があります。しかし、これらの音を初めて発見しているわけではないことを覚えておくことが重要です。 Bakkerが彼女の本で指摘しているように、世界中の先住民族のコミュニティは、動物が独自のコミュニケーションを持っていることを長い間知っていましたが、西洋の科学施設は歴史的に動物のコミュニケーションのアイデアを完全に却下しました。研究者の多くは、彼女の本の中で強調されており、クジラ、象、カメ、コウモリ、さらには植物でさえも自分の言語を持っているかもしれないと示唆したとき、科学コミュニティからの激しいプッシュバックに直面しています。彼らは、研究を行ったのと同じくらい多くの時間をプッシュバックに押し戻すのに費やしました。それは動物の理解が高まっていることで変化しているように見えますが、バッカーは動物とのコミュニケーション能力は祝福または呪いのいずれかであると警告しており、私たちは自然との対話のために技術の進歩をどのように使用するかについて慎重に考えなければなりません世界。私たちは世界の音の豊かさを理解して自然との親族感を獲得し、私たちがもたらした損害の一部を潜在的に癒すことさえできますが、動物や植物に対する支配を主張するために新たな力を使用するリスクも伴います。私たちは、私たちの周りの世界とどのように相互作用するかについて革命の端にいます、とバッカーはレコードに語った。さて、今後数年間でどのパスを従うかを決定する必要があります。このインタビューは、長さと明快さのために編集されています。あなたがあなたの紹介でレイアウトするという大きなアイデアから始めましょう:私たちはAIのようなテクノロジーを使用して動物と話をしています。それはどのように見えますか?

We can use artificial intelligence-enabled robots to speak animal languages and essentially breach the barrier of interspecies communication. Researchers are doing this in a very rudimentary way with honeybees and dolphins and to some extent with elephants. Now, this raises a very serious ethical question, because the ability to speak to other species sounds intriguing and fascinating, but it could be used either to create a deeper sense of kinship, or a sense of dominion and manipulative ability to domesticate wild species that we’ve never as humans been able to previously control.

人工知能対応のロボットを使用して動物言語を話し、本質的に種間コミュニケーションの障壁に違反することができます。研究者は、ミツバチとイルカを使用して非常に初歩的な方法でこれを行っており、ある程度は象でこれを行っています。今、これは非常に深刻な倫理的な問題を提起します。なぜなら、他の種と話す能力は興味をそそる魅力的に聞こえるからですが、より深い親族感、または野生種を飼育する支配と操作能力の感覚を作り出すために使用できるからです。人間が以前にコントロールすることができたことはありませんでした。

How would that work?

それはどのように機能しますか?

I’ll give you one example. A research team in Germany encoded honeybee signals into a robot that they sent into a hive. That robot is able to use the honeybees’ waggle dance communication to tell the honeybees to stop moving, and it’s able to tell those honeybees where to fly to for a specific nectar source. The next stage in this research is to implant these robots into honeybee hives so the hives accept these robots as members of their community from birth. And then we would have an unprecedented degree of control over the hive; we’ll have essentially domesticated that hive in a way we’ve never done so before. This creates the possibility of exploitive use of animals. And there’s a long history of the military use of animals, so that’s one path that I think raises a lot of alarm bells.

一例を挙げます。ドイツの研究チームは、ミツバチの信号をロボットにエンコードし、それを巣箱に送りました。そのロボットは、ミツバチのワグルダンスコミュニケーションを使用して、ミツバチに移動を止めるように指示することができ、それらのミツバチに特定の蜜のソースのためにどこに飛ぶかを伝えることができます。この研究の次の段階は、これらのロボットをミツバチの巣箱に埋め込むことです。そのため、巣箱は生まれてからコミュニティのメンバーとしてこれらのロボットを受け入れます。そして、私たちはハイブに対する前例のない程度の制御を持つことになります。私たちは本質的に、私たちがこれまでに行ったことのない方法でそのハイブを飼いならします。これにより、動物の搾取的な使用の可能性が生まれます。そして、動物の軍事使用の長い歴史があるので、それが私が多くの警報ベルを上げると思う1つの道です。

So these are the sorts of ethical questions that researchers are now starting to engage in. But the hope is that with these ethics in place, in the future, we — you and I, ordinary people — will have a lot more ability to tune into the sounds of nature, and to understand what we’re hearing. And I think what that does is create a real sense of awe and wonder and also a feeling of profound kinship. That’s where I hoped we would take these technologies.

したがって、これらは研究者が現在関与し始めている種類の倫理的な質問です。しかし、これらの倫理が整っていることで、将来、私たち – あなたと私、普通の人々は、より多くのより多くの能力を持っているということです。自然の音、そして私たちが聞いていることを理解するために。そして、それがしていることは、a敬の念と不思議の本当の感覚と深い親族感の感覚を作り出すことだと思います。そこで、これらのテクノロジーを採用することを望んでいました。

How did we first realize that animals — and even the Earth — were making all of these sounds outside of our hearing range?

動物、さらには地球でさえ、これらすべての音が聴覚範囲外に作っていることを最初に認識しましたか?

It’s funny, humans as a species tend to believe that what we cannot observe does not exist. So a lot of these sounds were literally right in front of our ears. But because of a tendency, especially in Western science, to privilege sight over sound, we simply hadn’t listened for them.

おもしろいです、種としての人間は、私たちが観察できないものが存在しないと信じがちです。したがって、これらの音の多くは文字通り私たちの耳の前にありました。しかし、特に西洋科学の傾向があるため、音に対する光景を特権化する傾向があるため、私たちは彼らのために聞いていませんでした。

The game changer, and the reason I wrote this book, is that digital technology now enables us to listen very easily and very cheaply to species all over the planet. And what we’re discovering is that a huge range of species that we never even suspected could make sound or respond to sound are indeed sort of participating in nature’s symphony. And that’s a discovery that is as significant as the microscope was a few hundred years ago: It opens up an entirely new sonic world, and is now ushering in many discoveries about complex communication in animals, language, and behavior that are really overturning many of our assumptions about animals and even plants.

ゲームチェンジャーと私がこの本を書いた理由は、デジタルテクノロジーにより、地球全体の種を非常に簡単かつ非常に安く聴くことができるようになったからです。そして、私たちが発見しているのは、私たちが決して疑わない膨大な種類の種が、音を出したり、音に反応したりすることができないということです。そして、それは顕微鏡が数百年前と同じくらい重要な発見です。それはまったく新しいソニックの世界を開き、今では動物、言語、行動における複雑なコミュニケーションについての多くの発見を先導しています。動物や植物についてさえ私たちの仮定。

Elephants seem to be a particularly good example of that inability to listen.

象は、聞くことができないという特に良い例のようです。

One story I tell in my book is that of Katie Payne, who’s one of the heroes of 20th century bioacoustics. She was actually a classically trained musician. After doing some amazing work on whale sounds, she was the one to first discover that elephants make sounds below our human hearing range, in infrasound. And this explains some of the amazingly uncanny ability of elephants to know where other elephants are over long distances. They can coordinate their movements and almost communicate telepathically. They’re pretty amazing animals, using this infrasound that can travel long distances through soil, through stones, or even walls. But the way that was discovered was simply by sitting and attentively listening.

私の本で私が語っている話の1つは、20世紀の生物波のヒーローの1人であるKatie Payneの話です。彼女は実際には古典的に訓練されたミュージシャンでした。クジラの音について素晴らしい仕事をした後、彼女は最初に象が私たちの人間の聴覚範囲の下で、インフラサウンドで音を出していることを発見しました。そして、これは、他の象が長距離のどこにあるかを知る象の驚くほど不気味な能力のいくつかを説明しています。彼らは動きを調整し、テレパシーでほとんどコミュニケーションをとることができます。彼らは非常に驚くべき動物であり、土壌、石、さらには壁を通って長距離を移動できるこのインフラサウンドを使用しています。しかし、発見された方法は、単に座って注意深く聞くことでした。

Katie Payne described that feeling of elephant infrasound as a strange throbbing in her chest, a strange feeling of unease. And that’s often how we can, as humans, sense infrasound. But until the advent of digital technology, the only way we could find out about these sounds was kind of haphazardly, we might go out and record something and painstakingly listen to it in the lab. I’m curious about how animals experience these sounds themselves. You said we experience infrasound as a sort of throbbing in our chest — is there any way to tell how the elephants themselves are experiencing these sounds? Are they also hearing a low throbbing sound? Or are they hearing something that’s so complex that we don’t quite understand?

ケイティ・ペインは、その象のインフラウンドの感覚が彼女の胸の奇妙なズキズキ、奇妙な不安感だと説明しました。そして、それはしばしば、人間としての障害を感じることができる方法です。しかし、デジタルテクノロジーが出現するまで、これらのサウンドについて私たちが知ることができる唯一の方法は、一種の偶然のことでした。私たちは外に出て何かを記録し、ラボで骨の折れるように聴くかもしれません。動物がこれらの音を自分で体験する方法に興味があります。あなたは、私たちが胸の一種のズキズキとしてインフラウンドを経験すると言いました – 象自体がこれらの音をどのように経験しているかを伝える方法はありますか?彼らはまた、低いズキズキする音を聞いていますか?それとも、彼らは私たちがよく理解していないほど複雑な何かを聞いていますか?

We are limited because these digital technologies are, at the end of the day, only a simulacra. When we want to listen to those sounds, which are often much higher or lower than the human hearing range, those sounds have to be altered. So we can’t ever really know what a bat sounds like to a bat.

これらのデジタルテクノロジーは、結局のところ、Simulacraのみであるため、私たちは限られています。人間の聴覚範囲よりもはるかに高いまたは低い音を聞きたい場合、それらの音を変更する必要があります。ですから、コウモリがバットのように聞こえるのは本当にわかりません。

The term that scientists use for this is the umwelt, the embodied experience of an animal that’s listening, that’s sensing its environment in its own skin. And we can only guess at that. But as we tried to do so I think it’s really important to put aside some of our human-centered ideas about what language is and what communication is. In the book, Mirjam Knörnschild — who’s an amazing German researcher who works on bats — makes a really great point: It’s actually not that interesting to ask what we can understand about language or how that sounds to us. What’s much more interesting is to try to understand what bats are saying to one another or to other species. So if we have a more biocentric approach to understanding animal communication, I think that’s when some of the most exciting and interesting insights arise.

科学者がこれに使用する用語は、耳を傾けている動物の具体化された体験であるUmweltです。そして、私たちはそれを推測することしかできません。しかし、私たちがそうしようとしたとき、私は、言語とは何か、コミュニケーションとは何かについて、人間中心のアイデアを脇に置くことが本当に重要だと思います。本の中で、コウモリに取り組んでいる驚くべきドイツの研究者であるMirjamKnörnschildは、本当に素晴らしい点を作ります。もっと興味深いのは、コウモリが互いに言っていることや他の種に何を言っているのかを理解しようとすることです。したがって、動物のコミュニケーションを理解するためのより生物中心のアプローチがある場合、それは最もエキサイティングで興味深い洞察のいくつかが生じたときだと思います。

Early in the book, you mention the idea of a zoological version of Google Translate. This idea that you’re talking about points to something else, though. Translation in the past has always been about what one group can do to interact with the other, but you’re talking about an idea that involves actively choosing not to interact with a group but instead sort of just observing. That’s very different from how we usually might think of these kinds of applications. So many of the attempts to teach primates human language or sign language in the 20th century were underpinned by an assumption that language is unique to humans, and that if we were to prove animals possess language we would have to prove that they could learn human language. And in retrospect, that’s a very human-centered view.

本の初期には、Google Translateの動物学的バージョンのアイデアに言及します。しかし、あなたが話しているというこの考えは、他の何かを指し示しています。過去の翻訳は常に、あるグループが他のグループと対話するためにできることについてでしたが、グループとやり取りするのではなく、ただ観察するだけでなく、積極的に選択することを伴うアイデアについて話しています。これは、これらの種類のアプリケーションを通常考える方法とは大きく異なります。20世紀に霊長類に人間の言語や手話を教える試みの多くは、言語は人間に固有のものであり、動物が言語を持っていることを証明するなら、人間の言語を学ぶことができることを証明しなければならないという仮定によって支えられていました。。振り返ってみると、それは非常に人間中心の見解です。

The research today takes a very different approach. It begins by recording the sounds that animals and even plants make. It then uses essentially machine learning to parse through mountains of data to detect patterns and associate those with behaviors to attempt to determine whether there’s complex information being conveyed by the sounds. What [these researchers] are doing is not trying to teach those species human language, but rather compiling, essentially, dictionaries of signals and then attempting to understand what those signals mean within those species. They’re finding some amazing things. For example, elephants have a different signal for honeybee, which is a threat, and a different signal for human. Moreover, they distinguish between threatening human and nonthreatening human. Honeybees themselves have hundreds of sounds. And now we know their language is vibrational and positional as well as auditory.

今日の研究は非常に異なるアプローチを採用しています。それは、動物や植物さえも音を記録することから始まります。次に、基本的に機械学習を使用して、データの山を解析してパターンを検出し、それらを行動に関連付けて、音によって伝えられる複雑な情報があるかどうかを判断しようとします。[これらの研究者]がしていることは、これらの種の人間の言語を教えることではなく、本質的に信号の辞書を編集し、それらの種でそれらの信号が何を意味するかを理解しようとすることです。彼らはいくつかの驚くべきものを見つけています。たとえば、象にはミツバチには異なる信号があり、これは脅威であり、人間の異なる信号があります。さらに、彼らは脅迫的な人間と脅威のない人間を区別します。ミツバチ自体には何百もの音があります。そして今、私たちは彼らの言語が振動と位置的、そして聴覚であることを知っています。

I was absolutely fascinated by your chapter on coral and the way coral reefs not only make sounds of their own but also attract baby coral, who seem able to hear them despite not having any ears. I’m curious, what does a healthy coral reef sound like?

私はコーラルに関するあなたの章と、サンゴ礁が自分の音を作るだけでなく、耳を持っていないにもかかわらずそれらを聞くことができるように見える赤ちゃんのサンゴを引き付ける方法に絶対に魅了されました。私は興味があります、健康なサンゴ礁はどのように聞こえますか?

A healthy coral reef sounds a little bit like an underwater symphony. There are cracks and burbles and hisses and clicks from the reef and its inhabitants and even whales dozens of miles away. If you could hear in the ultrasonic, you might hear the coral itself.

健康なサンゴ礁は、水中交響曲のように少し聞こえます。サンゴ礁とその住民、さらには数十マイル離れたクジラからさえ、ひびとバーブルとヒスとクリックがあります。超音波で聞くことができれば、サンゴ自体が聞こえるかもしれません。

Even coral larvae have demonstrated the ability to hear the sounds of a healthy reef. These creatures are microscopic, they have no arms or legs or apparent means of hearing and no central nervous system. But somehow they hear the sounds of a healthy reef and can swim toward it. So that’s astounding. If even these little creatures can hear in a manner that’s much more precise and attuned than humans, who knows what else nature is listening to?

サンゴの幼虫でさえ、健康なサンゴ礁の音を聞く能力を実証しています。これらの生き物は微視的で、腕や脚、または聴覚の明らかな手段がなく、中枢神経系もありません。しかし、どういうわけか彼らは健康なサンゴ礁の音を聞き、それに向かって泳ぐことができます。それは驚くべきことです。これらの小さな生き物でさえ、人間よりもはるかに正確で調和のとれた方法で聞くことができれば、誰が他の自然が聞いていることを知っているのでしょうか?

There’s a point that you bring up about how digital listening is new but deep listening is not. What do you mean by that?

デジタルリスニングがどのように新しくなっているかについて紹介するポイントがありますが、深いリスニングはそうではありません。それはどういう意味ですか?

The way Blackfoot philosopher Leroy Little Bear puts it is, “The human brain is like a station on the radio dial; parked in one spot, it is deaf to all the other stations … the animals, rocks, trees, simultaneously broadcasting across the whole spectrum of sentience.” The Indigenous writers John Borrows have Robin Wall Kimmerer described deep listening as a sort of venerable and ancient art. Before the advent of digital technologies, humans had lots of practices whereby they listened to nature. Animals’ complex communication abilities were well known to Indigenous peoples, who had various strategies and tactics for interpreting those sounds and engaging in cross-species communication. So deep listening provides us with another window into the soundscapes of the nonhuman and it does so with a sense of rootedness in place and a sort of sacred responsibility to place and a set of ethical safeguards that digital listening lacks.

ブラックフットの哲学者であるリトル・ベアが言う方法は、「人間の脳はラジオダイヤルの駅のようなものです。1つの場所に駐車されており、他のすべての駅に耳が聞こえない…動物、岩、木、同時に、センティエンスの全範囲にわたって放送されます。」先住民族の作家ジョン・ボローズは、ロビン・ウォール・キンメラーが深い聞き取りを一種の由緒ある古代の芸術であると説明しました。デジタルテクノロジーの出現前に、人間は自然に耳を傾ける多くの慣行を持っていました。動物の複雑なコミュニケーション能力は、先住民によく知られていました。先住民は、それらの音を解釈し、異種のコミュニケーションに従事するためのさまざまな戦略と戦術を持っていました。そのため、ディープリスニングは、非人間のサウンドスケープへの別のウィンドウを提供します。それは、配置された根本の感覚と、デジタルリスニングに欠けている倫理的保護の一連の倫理的保護策を備えてそうします。

It seems every person you write about who has studied these animal sounds received significant pushback from the scientific establishment, and they spent half their time pushing back against the pushback until finally they were proven right. I can’t help but think that acknowledging these forms of communication requires us to confront our ideas of sentience and intelligence in ways that make us uncomfortable.

誰がこれらの動物の音を研究したかについて書いたすべての人は、科学的施設から大きなプッシュバックを受けたようで、彼らは最終的に彼らが正しく証明されるまで、プッシュバックに反対する時間の半分を費やしました。これらの形式のコミュニケーションを認めるには、私たちが不快になる方法で、私たちの感覚と知性のアイデアに立ち向かう必要があると考えずにはいられません。

Yes, the scientists whose stories are told in the book often encountered very stiff resistance. They had their funding revoked. They had their lapels shaken at conferences. They were laughed at. They were sworn at. They were dismissed frequently. And yet they persisted, because the empirical evidence was there.

はい、本で語られている科学者は、しばしば非常に硬い抵抗に遭遇しました。彼らは資金を取り消しました。彼らは会議で襟を揺さぶりました。彼らは笑われました。彼らは誓われました。彼らは頻繁に却下されました。それでも、経験的証拠がそこにあったので、彼らは固執しました。

We have a residual sort of human exceptionalism in science and in our public discourse, where we want to believe that humans are unique at something. We used to say humans were unique at toolmaking. Now we know that not to be the case. Wouldn’t it be nice if humans were uniquely gifted at language? Well, maybe that’s not the case, either. Maybe as we refine our understanding of nonhuman language, we’ll have a much more inclusive definition or understanding of language as a continuum across the tree of life. This is pretty profoundly destabilizing. And it’s also destabilizing to realize that we were essentially deaf to all of these sounds going on all around us. We were the ones who were hard of hearing. And there’s a feeling of, I think, chagrin, and maybe mild embarrassment, that all of these sounds were there all the time, and we just never realized. So the feelings associated with this research are complicated. The philosophical debates are intense. And yet the sheer weight of the empirical evidence brings us to a point where we do need to start having these conversations.

私たちは、科学と私たちの公の言説には、人間の談話に残りの種類の例外主義があります。私たちは、人間がツールメイキングでユニークだったと言っていました。今、私たちはそうではないことを知っています。人間が言語でユニークに才能があったらいいのではないでしょうか?まあ、多分そうではないかもしれません。人間以外の言語の理解を洗練するとき、私たちは、生命の木全体にわたる継続的な言語としてのはるかに包括的な定義または理解が得られるでしょう。これは非常に不安定です。また、私たちは本質的に私たちの周りで起こっているこれらすべての音に耳が聞こえないことに気付くことも不安定です。私たちは聞くのが難しい人でした。そして、私は、悔しさ、そして多分穏やかな恥ずかしさの感覚があると思います。これらすべての音はいつもそこにあり、私たちは決して気付かなかっただけです。したがって、この研究に関連する感情は複雑です。哲学的議論は激しいです。それでも、経験的証拠の膨大な重みは、私たちがこれらの会話を始める必要があるポイントに私たちをもたらします。

You write that climate change is directly impacting the Earth soundscapes in sort of physical ways. How does that work? If you think of the planet as being like a symphony or a jazz band with lots of seasonal rhythms, the noises that we’re hearing ebb and flow according to life’s rhythms. And climate change disrupts those rhythms.

気候変動は、ある種の物理的な方法で地球のサウンドスケープに直接影響を与えていると書いています。それはどのように機能しますか?惑星がシンフォニーや季節のリズムがたくさんあるジャズバンドのようであると考えると、私たちが人生のリズムに従って衰退を聞いているという騒音。気候変動はこれらのリズムを混乱させます。

In some cases, climate change could even inhibit the ability of species to communicate. So for example, the dawn and dusk chorus of birds and many other species in the African savanna happen at those times because dawn and dusk are moments when you have higher humidity in the air. So sound travels faster and farther at dawn and dusk. It’s a great moment to communicate with your far-off relatives, right?

場合によっては、気候変動は種の通信能力を阻害することさえあります。たとえば、鳥の夜明けと夕暮れのコーラスやアフリカのサバンナの他の多くの種は、夜明けと夕暮れが空気中の湿度が高い瞬間であるためです。したがって、音は夜明けと夕暮れ時により速く、さらに遠くまで移動します。あなたの遠い親relativeとコミュニケーションをとるのに最適な瞬間ですよね?

But now, as climate change affects the temperature and humidity of the atmosphere, we are going to be affecting the dawn chorus in ways we cannot yet fully understand. We may make it harder for species to communicate in drier and hotter environments. If they can’t communicate as well, they’re less safe, they can’t warn each other of threats, it’s harder to find mates. And this will also affect their ability to survive and thrive.

しかし、今では、気候変動が大気の温度と湿度に影響を与えるため、私たちはまだ完全に理解できない方法で夜明けのコーラスに影響を与えるでしょう。種が乾燥した環境やより熱い環境で通信することを難しくするかもしれません。コミュニケーションができない場合、安全性が低く、脅威について互いに警告することはできません。仲間を見つけるのは難しいです。また、これは生き残り、繁栄する能力にも影響します。

You write that these digital technologies might help undo some of that damage too, though. Is there any project or application of these digital technologies that you’re particularly excited about?

ただし、これらのデジタルテクノロジーは、そのダメージの一部を元に戻すのに役立つかもしれないと書いています。特に興奮しているこれらのデジタルテクノロジーのプロジェクトやアプリケーションはありますか?

One project that really excites me is the use of bioacoustics to create a form of music therapy for the environment. It turns out that some species, like fish and coral, will respond to sounds like the sounds of healthy reefs. And this could help us regenerate degraded ecosystems. That research is in its infancy. We don’t know how many species that could apply to, but it could be fantastic if we could actually begin using essentially bioacoustics-based music therapy as a way to help with ecosystem regeneration.

私を本当に興奮させるプロジェクトの1つは、環境のための音楽療法の形を作成するために生体acousticsを使用することです。魚やサンゴのような一部の種は、健康なサンゴ礁の音のような音に反応することがわかります。そして、これは、劣化した生態系を再生するのに役立ちます。その研究は初期段階にあります。いくつの種の種が適用できるかはわかりませんが、生態系の再生を支援する方法として、本質的に生体アコースベースの音楽療法の使用を実際に始めることができれば素晴らしいかもしれません。

That’s such a fascinating idea to me, to undo our sonic damage with healthy sounds.

それは私にとってとても魅力的なアイデアであり、健康的な音で私たちの音のダメージを取り消すことです。

Yeah, or in a world with so many environmental crises, to have this be a tool in our toolkit as we try to triage saving species amidst the onslaught.

ええ、または非常に多くの環境危機がある世界では、猛攻撃の中で種を節約しようとするので、これを私たちのツールキットのツールにすることです。

元記事

https://www.vox.com/recode/2022/10/30/23426406/ai-animals-google-translate-karen-bakker-sounds-of-life

Newsカテゴリの最新記事