People who distrust fellow humans show greater trust in artificial intelligence
仲間に不信感を抱く人ほど、人工知能への信頼度が高いことが判明
要約(英語):
a recently published study has found that people’s distrust in humans predicts they will have more trust in artificial intelligence’s ability to moderate content online. The study also found that users with conservative political ideology were more likely to trust AI-powered moderation. This may stem from a distrust in mainstream media and social media companies, the researchers added.
要約(日本語):
最近公開された研究では、人間の人々の不信感は、オンラインでコンテンツを緩和する人工知能の能力にもっと信頼できると予測していることがわかりました。また、この研究では、保守的な政治的イデオロギーを持つユーザーがAI駆動の節度を信頼する可能性が高いことがわかりました。これは、主流のメディアやソーシャルメディア企業の不信に起因する可能性がある、と研究者は付け加えた。
本文:
A person’s distrust in humans predicts they will have more trust in artificial intelligence’s ability to moderate content online, according to a recently published study.
最近公開された調査によると、人間の人間の不信感は、人工知能のオンラインをオンラインで緩和する能力にもっと信頼できると予測しています。
The findings, the researchers say, have practical implications for both designers and users of AI tools in social media.
調査結果は、ソーシャルメディアのAIツールのデザイナーとユーザーの両方に実際的な意味を持っていると研究者は言います。
“We found a systematic pattern of individuals who have less trust in other humans showing greater trust in AI’s classification,” said S.
「私たちは、AIの分類に対するより大きな信頼を示す他の人間に対する信頼が少ない個人の体系的なパターンを見つけました」とSは言いました。
Shyam Sundar, the James P.
シャム・スンダール、ジェームズ・P
Jimirro Professor of Media Effects at Penn State.
ペンシルベニア州のメディア効果のジミアロ教授。
“Based on our analysis, this seems to be due to the users invoking the idea that machines are accurate, objective and free from ideological bias.” The study, published in the journal of New Media & Society also found that “power users” who are experienced users of information technology, had the opposite tendency.
「私たちの分析に基づいて、これは、マシンが正確で客観的であり、イデオロギー的バイアスから解放されているという考えを呼び起こすユーザーによるものです。」Journal of New Media&Societyに掲載されたこの調査では、情報技術の経験豊富なユーザーである「パワーユーザー」が反対の傾向があることも発見しました。
They trusted the AI moderators less because they believe that machines lack the ability to detect nuances of human language.
彼らは、機械が人間の言語のニュアンスを検出する能力がないと信じているため、AIモデレーターをあまり信頼していませんでした。
The study found that individual differences such as distrust of others and power usage predict whether users will invoke positive or negative characteristics of machines when faced with an AI-based system for content moderation, which will ultimately influence their trust toward the system.
この調査では、他の人への不信感や電力使用量などの個人差は、ユーザーがコンテンツモデレートのためのAIベースのシステムに直面したときにマシンの正または負の特性を呼び出すかどうかを予測することがわかりました。
The researchers suggest that personalizing interfaces based on individual differences can positively alter user experience.
研究者は、個人差に基づいてインターフェイスをパーソナライズすると、ユーザーエクスペリエンスを積極的に変えることができることを示唆しています。
The type of content moderation in the study involves monitoring social media posts for problematic content like hate speech and suicidal ideation.
この研究のコンテンツモデレートの種類には、ヘイトスピーチや自殺念慮などの問題のあるコンテンツのソーシャルメディア投稿を監視することが含まれます。
“One of the reasons why some may be hesitant to trust content moderation technology is that we are used to freely expressing our opinions online.
「一部の人がコンテンツモデレートテクノロジーを信頼することをためらう理由の1つは、オンラインで意見を自由に表現するために慣れていることです。
We feel like content moderation may take that away from us,” said Maria D.
コンテンツの節度はそれを私たちから奪うかもしれないと感じています」とマリアDは言いました。
Molina, an assistant professor of communication arts and sciences at Michigan State University, and the first author of this paper.
ミシガン州立大学の通信芸術科学の助教授であるモリナ、およびこの論文の最初の著者。
“This study may offer a solution to that problem by suggesting that for people who hold negative stereotypes of AI for content moderation, it is important to reinforce human involvement when making a determination.
「この研究は、コンテンツモデレートのためにAIの否定的なステレオタイプを保持している人々にとって、決定を下す際に人間の関与を強化することが重要であることを示唆することにより、その問題の解決策を提供するかもしれません。
On the other hand, for people with positive stereotypes of machines, we may reinforce the strength of the machine by highlighting elements like the accuracy of AI.” The study also found users with conservative political ideology were more likely to trust AI-powered moderation.
一方、マシンの肯定的なステレオタイプを持つ人々の場合、AIの精度のような要素を強調することにより、マシンの強度を強化することができます。
Molina and coauthor Sundar, who also co-directs Penn State’s Media Effects Research Laboratory, said this may stem from a distrust in mainstream media and social media companies.
また、ペンシルベニア州のメディア効果研究研究所を共同監督しているモリナと共著者のスナーは、これが主流のメディアやソーシャルメディア企業の不信に起因する可能性があると述べました。
The researchers recruited 676 participants from the United States.
研究者は、米国から676人の参加者を募集しました。
The participants were told they were helping test a content moderating system that was in development.
参加者は、開発中のコンテンツモデレートシステムのテストを支援していると言われました。
They were given definitions of hate speech and suicidal ideation, followed by one of four different social media posts.
彼らはヘイトスピーチと自殺念慮の定義を与えられ、その後4つの異なるソーシャルメディアの投稿の1つが続きました。
The posts were either flagged for fitting those definitions or not flagged.
投稿は、これらの定義を適合させるためにフラグが付けられたか、フラグが付けられていません。
The participants were also told if the decision to flag the post or not was made by AI, a human or a combination of both.
参加者は、投稿にフラグを立てる決定がAI、人間、またはその両方の組み合わせによって行われたかどうかも通知されました。
The demonstration was followed by a questionnaire that asked the participants about their individual differences.
デモンストレーションの後に、参加者に個人差について尋ねるアンケートが続きました。
Differences included their tendency to distrust others, political ideology, experience with technology and trust in AI.
違いには、他の人、政治的イデオロギー、技術の経験、AIへの信頼を不信感する傾向が含まれていました。
“We are bombarded with so much problematic content, from misinformation to hate speech,” Molina said.
「私たちは、誤った情報からヘイトスピーチまで、非常に多くの問題のあるコンテンツに襲われています」とモリーナは言いました。
“But, at the end of the day, it’s about how we can help users calibrate their trust toward AI due to the actual attributes of the technology, rather than being swayed by those individual differences.” Molina and Sundar say their results may help shape future acceptance of AI.
「しかし、結局のところ、それは、これらの個人差に左右されるのではなく、テクノロジーの実際の属性のために、ユーザーがAIに対する信頼を調整するのを支援する方法についてです。」MolinaとSundarは、彼らの結果がAIの将来の受け入れを形作るのに役立つかもしれないと言います。
By creating systems customized to the user, designers could alleviate skepticism and distrust, and build appropriate reliance in AI.
ユーザーにカスタマイズされたシステムを作成することにより、設計者は懐疑論と不信を軽減し、AIで適切な信頼を構築することができます。
“A major practical implication of the study is to figure out communication and design strategies for helping users calibrate their trust in automated systems,” said Sundar, who is also director of Penn State’s Center for Socially Responsible Artificial Intelligence.
「この研究の主要な実用的な意味は、自動化されたシステムに対する信頼をユーザーが調整するのを支援するためのコミュニケーションと設計戦略を把握することです」と、ペンシルベニア州の社会的責任ある人工知能センターのディレクターでもあるSundarは述べています。
“Certain groups of people who tend to have too much faith in AI technology should be alerted to its limitations and those who do not believe in its ability to moderate content should be fully informed about the extent of human involvement in the process.” Story Source: Materials provided by Penn State.
「AIテクノロジーにあまりにも多くの信仰を持っている傾向がある特定のグループは、その限界に注意する必要があり、そのプロセスへの人間の関与の程度について、コンテンツを緩和する能力を信じていない人々に十分な情報を得る必要があります。」ストーリーソース:ペンシルベニア州が提供する資料。
元記事
https://www.sciencedaily.com/releases/2022/09/220921210021.htm