論文の概要: Biased Minds Meet Biased AI: How Class Imbalance Shapes Appropriate Reliance and Interacts with Human Base Rate Neglect
- arxiv url: http://arxiv.org/abs/2511.14591v1
- Date: Tue, 18 Nov 2025 15:33:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-19 16:23:53.183738
- Title: Biased Minds Meet Biased AI: How Class Imbalance Shapes Appropriate Reliance and Interacts with Human Base Rate Neglect
- Title(参考訳): バイアスドマインドとバイアスドAI: クラスの不均衡はどのようにして人間のベースレートの無視に適切な信頼と干渉を形作るか
- Authors: Nick von Felten, Johannes Schöning, Klaus Opwis, Nicolas Scharowksi,
- Abstract要約: 我々は、AIバイアスとしてのクラス不均衡が、AIベースの意思決定支援システムに適切に依存する人々の能力にどのように影響するかを検討した。
授業の不均衡が参加者のAI依存の校正を妨げていることがわかった。
我々は,クラス不均衡とベースレートの無視の強化効果を観察し,複合AIバイアスの証拠を提示した。
- 参考スコア(独自算出の注目度): 11.632235903846016
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Humans increasingly interact with artificial intelligence (AI) in decision-making. However, both AI and humans are prone to biases. While AI and human biases have been studied extensively in isolation, this paper examines their complex interaction. Specifically, we examined how class imbalance as an AI bias affects people's ability to appropriately rely on an AI-based decision-support system, and how it interacts with base rate neglect as a human bias. In a within-subject online study (N= 46), participants classified three diseases using an AI-based decision-support system trained on either a balanced or unbalanced dataset. We found that class imbalance disrupted participants' calibration of AI reliance. Moreover, we observed mutually reinforcing effects between class imbalance and base rate neglect, offering evidence of a compound human-AI bias. Based on these findings, we advocate for an interactionist perspective and further research into the mutually reinforcing effects of biases in human-AI interaction.
- Abstract(参考訳): 人間は意思決定において人工知能(AI)とますます交流する。
しかし、AIと人間の両方がバイアスを起こしやすい。
AIと人間の偏見は孤立して研究されているが,本稿では複雑な相互作用について検討する。
具体的には、AIバイアスとしてのクラス不均衡が、AIベースの意思決定支援システムに適切に依存する人々の能力にどのように影響するか、そして人間のバイアスとしてのベースレートの無視とどのように相互作用するかを検討した。
対象内オンライン調査(N=46)では、参加者がバランスの取れたデータセットまたはバランスの取れていないデータセットでトレーニングされたAIベースの意思決定支援システムを使用して、3つの疾患を分類した。
授業の不均衡が参加者のAI依存の校正を妨げていることがわかった。
さらに,クラス不均衡とベースレート無視の相互抑制効果を観察し,複合型AIバイアスの証拠を提示した。
これらの知見に基づき、人間とAIの相互作用におけるバイアスの相互強化効果について、相互作用論的な視点とさらなる研究を提唱する。
関連論文リスト
- Aligning Generalisation Between Humans and Machines [74.120848518198]
AI技術は、科学的発見と意思決定において人間を支援することができるが、民主主義と個人を妨害することもある。
AIの責任ある使用と人間-AIチームへの参加は、AIアライメントの必要性をますます示している。
これらの相互作用の重要かつしばしば見落とされがちな側面は、人間と機械が一般化する異なる方法である。
論文 参考訳(メタデータ) (2024-11-23T18:36:07Z) - Human Bias in the Face of AI: Examining Human Judgment Against Text Labeled as AI Generated [48.70176791365903]
本研究では、偏見がAIと人為的コンテンツの知覚をどう形成するかを考察する。
ラベル付きおよびラベルなしコンテンツに対するヒトのラッカーの反応について検討した。
論文 参考訳(メタデータ) (2024-09-29T04:31:45Z) - Rolling in the deep of cognitive and AI biases [1.556153237434314]
我々は、AIが設計、開発、デプロイされる状況とは切り離せない社会技術システムとして理解する必要があると論じる。
我々は、人間の認知バイアスがAIフェアネスの概観の中核となる急進的な新しい方法論に従うことで、この問題に対処する。
我々は、人間にAIバイアスを正当化する新しいマッピングを導入し、関連する公正度と相互依存を検出する。
論文 参考訳(メタデータ) (2024-07-30T21:34:04Z) - Human-AI Coevolution [48.74579595505374]
Coevolution AIは、人間とAIアルゴリズムが相互に連続的に影響を及ぼすプロセスである。
本稿では,AIと複雑性科学の交点における新たな研究分野の基盤として,Coevolution AIを紹介した。
論文 参考訳(メタデータ) (2023-06-23T18:10:54Z) - Capturing Humans' Mental Models of AI: An Item Response Theory Approach [12.129622383429597]
我々は、AIエージェントのパフォーマンスが、他の人間のパフォーマンスよりも平均的にはるかに良いと期待していることを示します。
以上の結果から,AIエージェントの性能は他の人間よりも平均的に有意に向上することが示唆された。
論文 参考訳(メタデータ) (2023-05-15T23:17:26Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - BIASeD: Bringing Irrationality into Automated System Design [12.754146668390828]
我々は、人間と機械のコラボレーションの未来は、人間の認知バイアスをモデル化し、理解し、おそらく複製するAIシステムの開発を必要とすると主張している。
我々は、AIシステムの観点から既存の認知バイアスを分類し、3つの幅広い関心領域を特定し、私たちのバイアスをよりよく理解するAIシステムの設計のための研究の方向性を概説する。
論文 参考訳(メタデータ) (2022-10-01T02:52:38Z) - On the Influence of Explainable AI on Automation Bias [0.0]
我々は、説明可能なAI(XAI)によって自動化バイアスに影響を与える可能性に光を当てることを目指している。
ホテルのレビュー分類に関するオンライン実験を行い、最初の結果について議論する。
論文 参考訳(メタデータ) (2022-04-19T12:54:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。