論文の概要: Your Model Is Unfair, Are You Even Aware? Inverse Relationship Between Comprehension and Trust in Explainability Visualizations of Biased ML Models
- arxiv url: http://arxiv.org/abs/2508.00140v1
- Date: Thu, 31 Jul 2025 20:00:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-04 18:08:53.658693
- Title: Your Model Is Unfair, Are You Even Aware? Inverse Relationship Between Comprehension and Trust in Explainability Visualizations of Biased ML Models
- Title(参考訳): あなたのモデルは不公平である、あなたは気づいているか? バイアス付きMLモデルの説明可能性の可視化における理解と信頼の逆の関係
- Authors: Zhanna Kaufman, Madeline Endres, Cindy Xiong Bearfield, Yuriy Brun,
- Abstract要約: MLモデルの振る舞いがどのように説明されるかは、理解と信頼において重要な役割を担います。
モデル説明可能性のための可視化ツールを5つ評価した。
私たちは理解と信頼の逆の関係を見出す。
- 参考スコア(独自算出の注目度): 12.345078553607161
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Systems relying on ML have become ubiquitous, but so has biased behavior within them. Research shows that bias significantly affects stakeholders' trust in systems and how they use them. Further, stakeholders of different backgrounds view and trust the same systems differently. Thus, how ML models' behavior is explained plays a key role in comprehension and trust. We survey explainability visualizations, creating a taxonomy of design characteristics. We conduct user studies to evaluate five state-of-the-art visualization tools (LIME, SHAP, CP, Anchors, and ELI5) for model explainability, measuring how taxonomy characteristics affect comprehension, bias perception, and trust for non-expert ML users. Surprisingly, we find an inverse relationship between comprehension and trust: the better users understand the models, the less they trust them. We investigate the cause and find that this relationship is strongly mediated by bias perception: more comprehensible visualizations increase people's perception of bias, and increased bias perception reduces trust. We confirm this relationship is causal: Manipulating explainability visualizations to control comprehension, bias perception, and trust, we show that visualization design can significantly (p < 0.001) increase comprehension, increase perceived bias, and reduce trust. Conversely, reducing perceived model bias, either by improving model fairness or by adjusting visualization design, significantly increases trust even when comprehension remains high. Our work advances understanding of how comprehension affects trust and systematically investigates visualization's role in facilitating responsible ML applications.
- Abstract(参考訳): MLに依存するシステムはユビキタスになったが、その振る舞いにも偏りがある。
調査によると、バイアスはステークホルダーのシステムに対する信頼とそれらの使用方法に大きく影響している。
さらに、異なるバックグラウンドの利害関係者は、同じシステムを異なる方法で理解し、信頼します。
このように、MLモデルの振る舞いがどのように説明されるかは、理解と信頼において重要な役割を果たす。
設計特性の分類を作成する上で,説明可能性の可視化について検討する。
我々は,5つの最先端可視化ツール (LIME, SHAP, CP, Anchors, ELI5) をモデル説明可能性評価し, 分類学的特徴が理解, 偏見, 信頼にどのように影響するかを評価する。
驚くべきことに、私たちは理解と信頼の逆の関係を見つけます。
より理解可能な可視化は、人々の偏見に対する認識を高め、偏見知覚の増大は信頼を低下させる。
理解性、バイアス知覚、信頼を制御するための説明可能性可視化を操作することで、可視化設計が理解性を高め、認知バイアスを増大させ、信頼を減らすことができることを示す。
逆に、モデルフェアネスを改善するか、視覚化設計を調整することにより、知覚モデルバイアスを減らすことで、理解度が高くても信頼が著しく向上する。
我々の研究は、理解が信頼にどのように影響するかを理解し、責任あるMLアプリケーションを促進する上での可視化の役割を体系的に調査する。
関連論文リスト
- Interactive Reasoning: Visualizing and Controlling Chain-of-Thought Reasoning in Large Language Models [54.85405423240165]
トピックの階層構造としてチェーンオブ思考出力を可視化するインタラクション設計であるInteractive Reasoningを導入する。
私たちは、不確実なトレードオフに直面したAIによる意思決定のプロトタイプであるHippoで、インタラクティブな推論を実装しています。
論文 参考訳(メタデータ) (2025-06-30T10:00:43Z) - Fact-or-Fair: A Checklist for Behavioral Testing of AI Models on Fairness-Related Queries [85.909363478929]
本研究では,権威ある情報源から収集した19の実世界統計に着目した。
主観的および主観的な問合せからなるチェックリストを作成し,大規模言語モデルの振る舞いを解析する。
事実性と公平性を評価するためのメトリクスを提案し、これらの2つの側面の間に固有のトレードオフを正式に証明する。
論文 参考訳(メタデータ) (2025-02-09T10:54:11Z) - CBEval: A framework for evaluating and interpreting cognitive biases in LLMs [1.4633779950109127]
大きな言語モデルは、認知過程において顕著なギャップを示す。
人間の生成したデータのリフレクションとして、これらのモデルは認知バイアスを継承する可能性がある。
論文 参考訳(メタデータ) (2024-12-04T05:53:28Z) - Flattering to Deceive: The Impact of Sycophantic Behavior on User Trust in Large Language Model [0.0]
シコファンシー(Sycophancy)とは、大きな言語モデルが、そのアウトプットをユーザーの好み、信念、意見と整合させ、好意的に見せる傾向をいう。
本研究では,サイコファンの傾向が,大規模言語モデルにおけるユーザの信頼に悪影響を及ぼすか,あるいは逆に,そのような行動が好ましくないかを検討する。
論文 参考訳(メタデータ) (2024-12-03T20:07:41Z) - On the Fairness, Diversity and Reliability of Text-to-Image Generative Models [68.62012304574012]
マルチモーダル生成モデルは 信頼性 公正性 誤用の可能性について 批判的な議論を巻き起こしました
埋め込み空間におけるグローバルおよびローカルな摂動に対する応答を解析し、モデルの信頼性を評価するための評価フレームワークを提案する。
提案手法は, 信頼できない, バイアス注入されたモデルを検出し, 組込みバイアスの証明をトレースするための基礎となる。
論文 参考訳(メタデータ) (2024-11-21T09:46:55Z) - Whether to trust: the ML leap of faith [0.0]
Leap of Faith(LoF)は、ユーザーが機械学習(ML)に依存することを決めたときに行われる。
LoF行列は、MLモデルと人間の専門家のメンタルモデルとの間のアライメントをキャプチャする。
本稿では,ユーザが自己申告意図ではなく,行動を通じて信頼を示すかどうかを評価する信頼指標を提案する。
論文 参考訳(メタデータ) (2024-07-17T14:36:19Z) - Toward A Causal Framework for Modeling Perception [22.596961524387233]
機械学習(ML)における認識
本稿では,知覚を因果的にモデル化するための最初のアプローチを提案する。
我々は2種類の確率因果知覚(構造知覚とパラメトリック知覚)を定義した。
論文 参考訳(メタデータ) (2024-01-24T12:08:58Z) - Decoding Susceptibility: Modeling Misbelief to Misinformation Through a Computational Approach [61.04606493712002]
誤報に対する感受性は、観測不可能な不検証の主張に対する信念の度合いを記述している。
既存の感受性研究は、自己報告された信念に大きく依存している。
本稿では,ユーザの潜在感受性レベルをモデル化するための計算手法を提案する。
論文 参考訳(メタデータ) (2023-11-16T07:22:56Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Trust Calibration as a Function of the Evolution of Uncertainty in
Knowledge Generation: A Survey [1.462008690460147]
我々は、視覚分析システムにおけるユーザの信頼が、そのライフサイクルを通してどのように進化していくかを理解するためには、情報抽出を通じて、データソースからの不確実性の伝播を考慮する必要があると論じている。
我々は、視覚分析、人間の認知理論、不確実性から文献の幅広い断面をサンプリングし、有用な視点を合成しようと試みる。
論文 参考訳(メタデータ) (2022-09-09T16:46:37Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Calibrate to Interpret [0.966840768820136]
キャリブレーションと解釈の関係について検討することにより,不確実性と説明可能性の第一の関連性を示す。
画像分類タスクで訓練されたネットワークの文脈において、どの程度解釈が信頼度校正に敏感であるかを示す。
これは、解釈結果を改善するための簡単なプラクティスを提案することにつながります: Calibrate to Interpret。
論文 参考訳(メタデータ) (2022-07-07T14:30:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。