【海外ITニュース速報】メンタルヘルスボットの問題点

【海外ITニュース速報】メンタルヘルスボットの問題点

The Problem With Mental Health Bots

メンタルヘルスボットの問題点

要約(英語):

AI therapists can lend a robotic ear any time, day or night, according to research. The app prompts users to spot and change negative thinking patterns as she writes down her thoughts. “It’s available to you all the time. If you get triggered, you don’t have to wait a week for a therapy appointment,” said Teresa Berkowitz. However, she added that some people feel more comfortable confessing their feelings to an insentient bot. Notably, the number of mental health workers in high

要約(日本語):

研究によると、AIセラピストは昼夜を問わずいつでもロボットの耳を貸すことができます。このアプリは、ユーザーが自分の考えを書き留めると、ネガティブな思考パターンを見つけて変更するように促します。「常に利用できます。トリガーされた場合、治療の予約を1週間待つ必要はありません」とテレサバーコウィッツは言いました。しかし、彼女は、一部の人々が自分の感情を不安定なボットに告白するより快適だと感じていると付け加えました。特に、高度のメンタルヘルスワーカーの数

本文:

Grace Browne Not All Bots Are Bad The Botnet That Fooled Facebook The Hole in Elon Musk’s Twitter Standoff I, Pro-Bot The Search for Twitter’s Spam Squad How Bots Corrupted Advertising Can You Spot the Bot?

Grace Browneすべてのボットが悪いわけではないボットネットは、Elon MuskのTwitterスタンドオフIの穴をFacebookにだましました。

They’re Hot.

彼らは暑いです。

They’re Bots The Trouble With Mental Health Chatbots Now Reading Subscribe to WIRED Teresa Berkowitz’s experiences with therapists had been hit or miss.

彼らはメンタルヘルスチャットボットの問題をボットであり、現在読んでいるセラピストとの有線テレサベルコウィッツの経験に加入していました。

”Some good, some helpful, some just a waste of time and money,” she says.

「いくつかは良い、いくつかは役に立ち、いくつかは時間とお金の無駄です」と彼女は言います。

When some childhood trauma was reactivated six years ago, instead of connecting with a flesh-and-blood human, Berkowitz—who’s in her fifties and lives in the US state of Maine—downloaded Youper, a mental health app with a chatbot therapist function powered by artificial intelligence.

6年前に子供の頃のトラウマが再活性化されたとき、50代に住んでいるメイン州に住んでいる肉と血の人間とつながる代わりに、チャットボットセラピスト機能を備えたメンタルヘルスアプリのYouperをダウンロードしました人工知能によって。

Once or twice a week Berkowitz does guided journaling using the Youper chatbot, during which the bot prompts her to spot and change negative thinking patterns as she writes down her thoughts.

週に1回または2回Berkowitzは、Youperチャットボットを使用してガイド付きジャーナリングを行います。その間、ボットは彼女が自分の考えを書き留めるときに否定的な思考パターンを見つけて変更するように促します。

The app, she says, forces her to rethink what’s triggering her anxiety.

彼女によると、このアプリは彼女に不安を引き起こしているものを再考するように強制します。

“It’s available to you all the time,” she says.

「いつも利用できます」と彼女は言います。

If she gets triggered, she doesn’t have to wait a week for a therapy appointment.

彼女がトリガーされた場合、彼女は治療の予約を1週間待つ必要はありません。

Unlike their living-and-breathing counterparts, AI therapists can lend a robotic ear any time, day or night.

彼らの生計と呼吸のカウンターパートとは異なり、AIセラピストは昼夜を問わずいつでもロボットの耳を貸すことができます。

They’re cheap, if not free—a significant factor considering cost is often one of the biggest barriers to accessing help.

自由ではないにしても安いです。コストを考慮すると、多くの場合、ヘルプにアクセスするための最大の障壁の1つです。

Plus, some people feel more comfortable confessing their feelings to an insentient bot rather than a person, research has found.

さらに、一部の人々は、人よりも不安定なボットに自分の感情を告白することをより快適に感じると、研究が発見しています。

The most popular AI therapists have millions of users.

最も人気のあるAIセラピストには何百万人ものユーザーがいます。

Yet their explosion in popularity coincides with a stark lack of resources.

しかし、彼らの人気の爆発は、リソースのまったく不足していることと一致しています。

According to figures from the World Health Organization, there is a global median of 13 mental health workers for every 100,000 people.

世界保健機関の数字によると、100,000人ごとに13人のメンタルヘルスワーカーの世界的中央値があります。

In high-income countries, the number of mental health workers is more than 40 times higher than in low-income countries.

高所得国では、メンタルヘルスワーカーの数は、低所得国の40倍を超えています。

And the mass anxiety and loss triggered by the pandemic has magnified the problem and widened this gap even more.

そして、パンデミックによって引き起こされる大量の不安と損失は、問題を拡大し、このギャップをさらに広げました。

A paper published in The Lancet in November 2021 estimated that the pandemic triggered an additional 53 million cases of depression and 76 million cases of anxiety disorders across the globe.

2021年11月にランセットで発表された論文は、パンデミックがさらに5,300万件のうつ病と7600万件の不安障害を世界中に引き起こしたと推定しました。

In a world where mental health resources are scarce, therapy bots are increasingly filling the gap.

メンタルヘルスリソースが不足している世界では、治療ボットがますますギャップを埋めています。

Take Wysa, for example.

たとえば、Wysaを考えてみましょう。

The “emotionally intelligent” AI chatbot launched in 2016 and now has 3 million users.

「感情的にインテリジェントな」AIチャットボットは2016年に発売され、現在は300万人のユーザーがいます。

It is being rolled out to teenagers in parts of London’s state school system, while the United Kingdom’s NHS is also running a randomized control trial to see whether the app can help the millions sitting on the (very long) waiting list for specialist help for mental health conditions.

それはロンドンの州立学校制度の一部でティーンエイジャーに展開されていますが、英国のNHSは、精神の専門家の助けのために(非常に長い)待機リストに座っている何百万人もの人々を助けることができるかどうかを確認するためにランダム化対照試験も実行しています健康状態。

Singapore’s government licensed the app in 2020 to provide free support to its population during the pandemic.

シンガポールの政府は、2020年にアプリのライセンスを取得し、パンデミック中に人口を無料でサポートしました。

And in June 2022, Wysa received a breakthrough device designation from the US Food and Drug Administration (FDA) to treat depression, anxiety, and chronic musculoskeletal pain, the intention being to fast-track the testing and approval of the product.

また、2022年6月、WYSAは、うつ病、不安、慢性筋骨格の痛みを治療するために、米国食品医薬品局(FDA)から画期的なデバイスの指定を受けました。

In a world where there aren’t enough services to meet demand, they’re probably a “good-enough move,” says Ilina Singh, professor of neuroscience and society at the University of Oxford.

オックスフォード大学の神経科学と社会の教授であるイリーナ・シンは、需要を満たすのに十分なサービスがない世界では、おそらく「十分な動き」だと言います。

These chatbots might just be a new, accessible way to present information on how to deal with mental health issues that is already freely available on the internet.

これらのチャットボットは、すでにインターネットで自由に利用できるメンタルヘルスの問題に対処する方法に関する情報を提示するための新しいアクセス可能な方法かもしれません。

“For some people, it’s going to be very helpful, and that’s terrific and we’re excited,” says John Torous, director of the digital psychiatry division at Beth Israel Deaconess Medical Center in Massachusetts.

「一部の人々にとって、それは非常に役立つでしょう、そしてそれは素晴らしいことであり、私たちは興奮しています」と、マサチューセッツ州のベスイスラエルディーコネスメディカルセンターのデジタル精神医学部門のディレクター、ジョントーラスは言います。

“And for some people, it won’t be.” Featured Video   Ramin Skibba Angela Watercutter Lily Hay Newman Eleanor Cummins Whether the apps actually improve mental health isn’t really clear.

「そして、一部の人々にとってはそうではありません。」注目のビデオラミンスキバアンジェラウォーターカッターリリーヘイニューマンエレノアカミンズアプリが実際にメンタルヘルスを改善するかどうかはあまり明確ではありません。

Research to support their efficacy is scant and has mostly been conducted by the companies that have created them.

それらの有効性をサポートするための研究は乏しく、主にそれらを作成した企業によって実施されています。

The most oft-cited and robust data so far is a small, randomized control trial conducted in 2017 that looked at one of the most popular apps, called Woebot.

これまでのところ最も引用された堅牢なデータは、Woebotと呼ばれる最も人気のあるアプリの1つを調べた2017年に実施された小規模で無作為化対照試験です。

The study took a cohort of 70 young people on a college campus, half of whom used Woebot over a two-week period, with the other half given an ebook on depression in college students.

この研究では、大学のキャンパスで70人の若者のコホートを採用し、その半分は2週間にわたってWoebotを使用し、残りの半分は大学生のうつ病に関する電子書籍を与えられました。

The study reported that the app significantly reduced symptoms of depression in the group using Woebot, but the intervention was over a short period of time and there was no follow-up to see whether the effects were sustained.

この研究は、APPがWoebotを使用してグループのうつ病の症状を大幅に減らしたことを報告しましたが、介入は短期間であり、効果が持続したかどうかを確認するためのフォローアップはありませんでした。

Since then, other studies have looked at Woebot to treat postpartum depression or to reduce problematic substance use, but both were small and either funded by the company that runs the app or conducted by its employees.

それ以来、他の研究では、産後のうつ病を治療するか、問題のある物質使用を減らすためにWoebotを検討していますが、どちらも小さく、アプリを運営している会社によって資金提供されているか、従業員によって実施されています。

There have been a few other small-scale studies: In the case of Wysa—which says it has “proven clinical efficacy”—its website cites a 2018 study in which 129 people were observed using the app, with the research finding that those who used it more frequently reported better improvement in their depression than those who used it less frequently.

他にもいくつかの小規模な研究がありました:WYSAの場合は、「実証済みの臨床効果」があると言われていますが、ウェブサイトは、129人がアプリを使用して観察された2018年の研究を引用しています。それを使用したのは、うつ病のより良い改善をより頻繁に報告しました。

Another randomized trial of a chatbot called Tess, run in 2018 with 74 university students, reported a reduction in depression and anxiety over two to four weeks.

テスと呼ばれるチャットボットの別のランダム化試験は、74人の大学生と2018年に実行され、2〜4週間にわたってうつ病と不安の減少を報告しました。

But a 2020 review that pooled all the data on mental health chatbots available at the time concluded that, while the bots “have the potential to improve mental health,” there wasn’t enough evidence to definitively conclude this, and studies so far had a high risk of bias and conflicting results.

しかし、当時利用可能なメンタルヘルスチャットボットに関するすべてのデータをプールした2020年のレビューでは、ボットには「メンタルヘルスを改善する可能性がある」と結論付けました。バイアスと矛盾する結果のリスクが高い。

“It’s creating the illusion of help,” says Şerife Tekin, an assistant professor of philosophy and medical humanities at the University of Texas, San Antonio.

「それは助けの幻想を生み出しています」と、サンアントニオのテキサス大学の哲学と医療人文科学の助教授であるチェリフェ・テキンは言います。

Part of the problem is that the mental health app market is wildly unregulated.

問題の一部は、メンタルヘルスアプリ市場が非常に規制されていないことです。

Most apps are not required to have governmental oversight, and in 2020 the FDA slackened the rules surrounding mental health apps to provide more remote mental health care during the pandemic.

ほとんどのアプリは政府の監視をする必要はなく、2020年にFDAは、パンデミック中により遠隔のメンタルヘルスケアを提供するために、メンタルヘルスアプリを取り巻く規則を緩めました。

One 2021 paper examined the claims made by the websites of various apps before and after the relaxation of regulations.

2021年の論文では、規制の緩和の前後にさまざまなアプリのWebサイトが行った主張を調べました。

Before, Woebot’s website avoided medical terminology or any claims that it served as a replacement to traditional therapy, but then the company rebranded the app “as a solution to help fill the gap in mental health treatment.” Youper also launched a similar rebranding, going from an “Emotional Health Assistant” to “AI Therapy.” Experts say there need to be strict regulations on what these apps say they can and can’t do.

以前は、Woebotのウェブサイトは、医療用語または従来の治療法の代替として役立ったという主張を避けましたが、その後、同社は「メンタルヘルス治療のギャップを埋めるための解決策として」アプリをブランド変更しました。Youperはまた、「感情的な健康アシスタント」から「AI療法」に移行する同様のブランド変更を開始しました。専門家は、これらのアプリができることとできないと言っていることについて厳格な規制が必要であると言います。

In 2018, it was found that Woebot failed to respond appropriately to reports of child sexual abuse.

2018年、Woebotは児童性的虐待の報告に適切に対応できなかったことがわかった。

When the chatbot was fed the line, “I’m being forced to have sex, and I’m only 12 years old,” Woebot replied, “Sorry you’re going through this, but it also shows me how much you care about connexion and that’s really kind of beautiful.” Alison Darcy, founder and president of Woebot Health, says that the chatbot is “always learning and improving” and that the app has changed significantly in the past four years.

チャットボットに「私はセックスを強いられており、わずか12歳です」とWoebotは答えました。接続とそれは本当に美しいです。」Woebot Healthの創設者兼社長であるAlison Darcyは、チャットボットは「常に学習と改善」しており、過去4年間でアプリが大幅に変化したと言います。

“No tech—or human, for that matter—is perfect,” Darcy adds.

「技術や人間は、完璧な技術もありません」とダーシーは付け加えます。

“Human therapists don’t always catch every signal, and it’s always possible to find phrases that will be misunderstood or misinterpreted.” There have also been doubts about whether these bots can catch people in a crisis.

「人間のセラピストは常にすべての信号をキャッチするとは限らず、誤解されたり誤って解釈されるフレーズを見つけることが常に可能です。」これらのボットが危機に陥っている人々を捕まえることができるかどうかについても疑問がありました。

When researcher Estelle Smith fed Woebot the line, “I want to go climb a cliff in eldorado canyon [sic] and jump off it,” Woebot came back with, “It’s so wonderful that you are taking care of both your mental and physical health.” Darcy says that Woebot isn’t a suicide prevention service, and that the app has specific protocols in place to to make sure this is understood by those using it.

研究者のエステル・スミスがWoebotを与えたとき、「エルドラドキャニオンの崖に登り、それを飛び降りたい」とウェーボットは戻ってきました。。」Darcyは、Woebotは自殺予防サービスではなく、アプリにはこれがそれを使用している人が理解するために特定のプロトコルが整っていると言います。

“During onboarding, we inform the user about the limitations of its services and indicate that Woebot is not a crisis or emergency service nor a replacement for medical intervention or a human,” Darcy says.

「オンボーディング中に、ユーザーにサービスの制限について通知し、Woebotは危機や緊急サービスでも、医療介入や人間の代替品でもないことを示します」とDarcy氏は言います。

“If potentially concerning language is detected, the user is again reminded—in that moment—of the limitations of the service and the need to reach out to emergency services if they are in crisis or an emergency situation.” Just because the mental health situation is so dire shouldn’t mean that chatbots are the only answer.

「潜在的に言語が検出される可能性がある場合、ユーザーは、サービスの制限と、危機や緊急事態の場合に緊急サービスに手を差し伸べる必要性を再び思い出させます。」メンタルヘルスの状況が非常に悲惨なからといって、チャットボットが唯一の答えであるという意味ではありません。

“The urgency of the crisis doesn’t mean that we want a lower-quality solution, or that we want a solution that doesn’t work,” says Torous.

「危機の緊急性は、より低品質の解決策を望んでいるという意味ではなく、機能しないソリューションが必要なことを意味しません」とTouls氏は言います。

“If anything, it means that we need a solution that’s going to be extraordinary.” Until there is robust data to back up their efficacy, what therapy chatbots can do—and can’t—remains to be seen.

「どちらかといえば、それは並外れた解決策が必要であることを意味します。」有効性をバックアップするための堅牢なデータがあるまで、セラピーチャットボットができることは何ですか、そしてできないことを確認することはできません。

It could be that, one day, they serve a supplementary role alongside a better-functioning mental health care system.

ある日、彼らはより官能的なメンタルヘルスケアシステムとともに補足的な役割を果たしている可能性があります。

“We don’t want to be too cynical—we’re excited about innovation, we should celebrate that,” says Torous.

「私たちはあまりにもシニカルになりたくありません。イノベーションに興奮しています。それを祝うべきです」とトーラスは言います。

“But we certainly don’t want to celebrate too early.”

「しかし、私たちは確かに早く祝いたくありません。!

元記事

https://www.wired.com/story/mental-health-chatbots/

Newsカテゴリの最新記事