論文の概要: Debiased-CAM to mitigate systematic error with faithful visual
explanations of machine learning
- arxiv url: http://arxiv.org/abs/2201.12835v1
- Date: Sun, 30 Jan 2022 14:42:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-01 17:28:15.406257
- Title: Debiased-CAM to mitigate systematic error with faithful visual
explanations of machine learning
- Title(参考訳): Debiased-CAMによる機械学習の忠実な視覚的説明による系統的誤りの軽減
- Authors: Wencan Zhang, Mariella Dimiccoli, Brian Y. Lim
- Abstract要約: Debiased-CAM は様々なバイアスタイプやレベルにまたがって説明の忠実さを回復する。
シミュレーション研究において、この手法は予測精度を向上するだけでなく、非常に忠実な説明を生み出した。
- 参考スコア(独自算出の注目度): 10.819408603463426
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Model explanations such as saliency maps can improve user trust in AI by
highlighting important features for a prediction. However, these become
distorted and misleading when explaining predictions of images that are subject
to systematic error (bias). Furthermore, the distortions persist despite model
fine-tuning on images biased by different factors (blur, color temperature,
day/night). We present Debiased-CAM to recover explanation faithfulness across
various bias types and levels by training a multi-input, multi-task model with
auxiliary tasks for explanation and bias level predictions. In simulation
studies, the approach not only enhanced prediction accuracy, but also generated
highly faithful explanations about these predictions as if the images were
unbiased. In user studies, debiased explanations improved user task
performance, perceived truthfulness and perceived helpfulness. Debiased
training can provide a versatile platform for robust performance and
explanation faithfulness for a wide range of applications with data biases.
- Abstract(参考訳): 正当性マップのようなモデル説明は、予測の重要な特徴を強調することによって、AIのユーザ信頼を向上させることができる。
しかし、系統的誤り(bia)の対象となる画像の予測を説明すると、これらは歪んで誤解を招く。
さらに、様々な要因(青、色温度、昼夜)に偏った画像のモデル微調整にもかかわらず、歪みは持続する。
本稿では,多入力マルチタスクモデルと補助タスクを訓練し,バイアスレベルの予測を行うことにより,様々なバイアスタイプやレベルにまたがる説明忠実性を回復するデバイアスドカムを提案する。
シミュレーション研究において、このアプローチは予測精度を高めるだけでなく、画像が偏っていないかのようにこれらの予測について非常に忠実な説明を生み出した。
ユーザ研究において、偏りのある説明は、ユーザタスクのパフォーマンス、認識された真理性、および認識された有用性を改善した。
debiased trainingは、データバイアスのある幅広いアプリケーションに対して、堅牢なパフォーマンスと説明の忠実性のための多彩なプラットフォームを提供することができる。
関連論文リスト
- Images Speak Louder than Words: Understanding and Mitigating Bias in Vision-Language Model from a Causal Mediation Perspective [13.486497323758226]
広範囲なデータセットで事前訓練された視覚言語モデルは、性情報とオブジェクトやシナリオを関連付けることによって、必然的にバイアスを学習することができる。
本稿では,因果媒介分析を取り入れた枠組みを提案し,バイアス発生と伝播の経路を計測・マッピングする。
論文 参考訳(メタデータ) (2024-07-03T05:19:45Z) - Classes Are Not Equal: An Empirical Study on Image Recognition Fairness [100.36114135663836]
我々は,クラスが等しくないことを実験的に証明し,様々なデータセットにまたがる画像分類モデルにおいて,公平性の問題が顕著であることを示した。
以上の結果から,モデルでは認識が困難であるクラスに対して,予測バイアスが大きくなる傾向が示唆された。
データ拡張および表現学習アルゴリズムは、画像分類のある程度の公平性を促進することにより、全体的なパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2024-02-28T07:54:50Z) - Improving Bias Mitigation through Bias Experts in Natural Language
Understanding [10.363406065066538]
補助モデルと主モデルの間に二項分類器を導入するデバイアス化フレームワークを提案する。
提案手法は補助モデルのバイアス識別能力を向上させる。
論文 参考訳(メタデータ) (2023-12-06T16:15:00Z) - Debiasing Multimodal Models via Causal Information Minimization [65.23982806840182]
我々は、マルチモーダルデータのための因果グラフにおいて、共同創設者から生じるバイアスを研究する。
ロバストな予測機能は、モデルがアウト・オブ・ディストリビューションデータに一般化するのに役立つ多様な情報を含んでいる。
これらの特徴を共同設立者表現として使用し、因果理論によって動機づけられた手法を用いてモデルからバイアスを取り除く。
論文 参考訳(メタデータ) (2023-11-28T16:46:14Z) - Counterfactual Augmentation for Multimodal Learning Under Presentation
Bias [48.372326930638025]
機械学習システムでは、ユーザとモデル間のフィードバックループが将来のユーザの振る舞いをバイアスし、ラベルのプレゼンテーションバイアスを引き起こす。
生成した反事実ラベルを用いてプレゼンテーションバイアスを補正する新しい因果的手法である反事実拡張を提案する。
論文 参考訳(メタデータ) (2023-05-23T14:09:47Z) - Generalizability Analysis of Graph-based Trajectory Predictor with
Vectorized Representation [29.623692599892365]
軌道予測は自動運転車にとって不可欠な課題の1つである。
機械学習の最近の進歩は、一連の高度な軌道予測アルゴリズムを生み出した。
論文 参考訳(メタデータ) (2022-08-06T20:19:52Z) - General Greedy De-bias Learning [163.65789778416172]
本稿では,関数空間における勾配降下のような偏りのあるモデルとベースモデルを優雅に訓練する一般グリーディ・デバイアス学習フレームワーク(GGD)を提案する。
GGDは、事前知識を持つタスク固有バイアスモデルと、事前知識を持たない自己アンサンブルバイアスモデルの両方の設定の下で、より堅牢なベースモデルを学ぶことができる。
論文 参考訳(メタデータ) (2021-12-20T14:47:32Z) - Visual Recognition with Deep Learning from Biased Image Datasets [6.10183951877597]
視覚認知の文脈において、バイアスモデルがどのように治療問題に適用できるかを示す。
作業中のバイアス機構に関する(近似的な)知識に基づいて、我々のアプローチは観察を再重み付けする。
本稿では,画像データベース間で共有される低次元画像表現を提案する。
論文 参考訳(メタデータ) (2021-09-06T10:56:58Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Debiased-CAM for bias-agnostic faithful visual explanations of deep
convolutional networks [10.403206672504664]
クラスアクティベーションマップ(cams)は、サルエントピクセルを識別することで畳み込みニューラルネットワークの予測を説明する。
CAMの説明は、画像バイアスの増大により、より逸脱し、不誠実になる。
Debiased-CAM は様々なバイアスタイプやレベルにまたがって説明の忠実さを回復する。
論文 参考訳(メタデータ) (2020-12-10T10:28:47Z) - Are Visual Explanations Useful? A Case Study in Model-in-the-Loop
Prediction [49.254162397086006]
画像に基づく年齢予測課題における視覚的満足度に基づく説明について検討する。
モデル予測の提示により,人間の精度が向上することが判明した。
しかし、様々な種類の説明は、人間の正確さやモデルの信頼を著しく変えることができない。
論文 参考訳(メタデータ) (2020-07-23T20:39:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。