論文の概要: Debiased-CAM for bias-agnostic faithful visual explanations of deep
convolutional networks
- arxiv url: http://arxiv.org/abs/2012.05567v1
- Date: Thu, 10 Dec 2020 10:28:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-15 06:30:30.532736
- Title: Debiased-CAM for bias-agnostic faithful visual explanations of deep
convolutional networks
- Title(参考訳): Debiased-CAMによる深層畳み込みネットワークの偏見に依存しない忠実な視覚的説明
- Authors: Wencan Zhang, Mariella Dimiccoli, Brian Y. Lim
- Abstract要約: クラスアクティベーションマップ(cams)は、サルエントピクセルを識別することで畳み込みニューラルネットワークの予測を説明する。
CAMの説明は、画像バイアスの増大により、より逸脱し、不誠実になる。
Debiased-CAM は様々なバイアスタイプやレベルにまたがって説明の忠実さを回復する。
- 参考スコア(独自算出の注目度): 10.403206672504664
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Class activation maps (CAMs) explain convolutional neural network predictions
by identifying salient pixels, but they become misaligned and misleading when
explaining predictions on images under bias, such as images blurred
accidentally or deliberately for privacy protection, or images with improper
white balance. Despite model fine-tuning to improve prediction performance on
these biased images, we demonstrate that CAM explanations become more deviated
and unfaithful with increased image bias. We present Debiased-CAM to recover
explanation faithfulness across various bias types and levels by training a
multi-input, multi-task model with auxiliary tasks for CAM and bias level
predictions. With CAM as a prediction task, explanations are made tunable by
retraining the main model layers and made faithful by self-supervised learning
from CAMs of unbiased images. The model provides representative, bias-agnostic
CAM explanations about the predictions on biased images as if generated from
their unbiased form. In four simulation studies with different biases and
prediction tasks, Debiased-CAM improved both CAM faithfulness and task
performance. We further conducted two controlled user studies to validate its
truthfulness and helpfulness, respectively. Quantitative and qualitative
analyses of participant responses confirmed Debiased-CAM as more truthful and
helpful. Debiased-CAM thus provides a basis to generate more faithful and
relevant explanations for a wide range of real-world applications with various
sources of bias.
- Abstract(参考訳): クラスアクティベーションマップ(cams)は、突出したピクセルを識別することで畳み込みニューラルネットワークの予測を説明するが、バイアス下の画像(画像が誤ってぼやけたり、プライバシ保護のために故意にぼやけたり、不適切なホワイトバランスの画像など)で予測を説明すると、誤ったアライメントと誤解を招く。
これらのバイアス画像の予測性能を改善するためにモデル微調整を行ったが、画像バイアスの増加に伴いCAM説明がより逸脱し、不誠実になることを示す。
我々は,CAMとバイアスレベル予測のための補助タスクを備えた多入力マルチタスクモデルを訓練することにより,様々なバイアスタイプやレベルにわたる説明の忠実さを回復する。
CAMを予測タスクとし、主モデル層を再トレーニングし、不偏像のCAMから自己教師付き学習を行うことにより、説明が調整可能となる。
このモデルは、偏りのない形態から生成されたかのようにバイアス画像上の予測について、代表的でバイアスに依存しないCAMの説明を提供する。
バイアスと予測タスクが異なる4つのシミュレーション研究において、Debiased-CAMはCAMの忠実さとタスクパフォーマンスを改善した。
さらに,その真理と有用性を検証するために,制御されたユーザ調査を2回実施した。
参加者の反応の定量的、質的な分析により、Debiased-CAMはより真実で役に立つと確認された。
したがって、Debiased-CAMは様々なバイアス源を持つ幅広い現実世界のアプリケーションに対してより忠実で関連する説明を生成する基盤を提供する。
関連論文リスト
- Images Speak Louder than Words: Understanding and Mitigating Bias in Vision-Language Model from a Causal Mediation Perspective [13.486497323758226]
広範囲なデータセットで事前訓練された視覚言語モデルは、性情報とオブジェクトやシナリオを関連付けることによって、必然的にバイアスを学習することができる。
本稿では,因果媒介分析を取り入れた枠組みを提案し,バイアス発生と伝播の経路を計測・マッピングする。
論文 参考訳(メタデータ) (2024-07-03T05:19:45Z) - Towards Generalizable and Interpretable Motion Prediction: A Deep
Variational Bayes Approach [54.429396802848224]
本稿では,分布外ケースに対する頑健な一般化性を有する動き予測のための解釈可能な生成モデルを提案する。
このモデルでは, 長期目的地の空間分布を推定することにより, 目標駆動動作予測を実現する。
動き予測データセットの実験は、適合したモデルが解釈可能で一般化可能であることを検証した。
論文 参考訳(メタデータ) (2024-03-10T04:16:04Z) - FM-G-CAM: A Holistic Approach for Explainable AI in Computer Vision [0.6215404942415159]
我々は,コンピュータビジョンモデル,特に畳み込みニューラルネットワーク(CNN)に基づくモデルの予測を理解する必要性を強調した。
既存のCNN予測法は、主にグラディエント重み付きクラスアクティベーションマップ(Grad-CAM)に基づいており、単一のターゲットクラスのみに焦点を当てている。
本稿では,複数の上位予測クラスを考慮したFused Multi-class Gradient-weighted Class Activation Map (FM-G-CAM)を提案する。
論文 参考訳(メタデータ) (2023-12-10T19:33:40Z) - Mitigating Bias for Question Answering Models by Tracking Bias Influence [84.66462028537475]
本稿では,複数選択QAモデルのバイアスを軽減するためのBMBIを提案する。
バイアスのある例から学んだ場合、モデルがよりバイアスに傾くように傾くという直感に基づいて、クエリインスタンスのバイアスレベルを測定します。
本手法は,複数のバイアスカテゴリにまたがる複数のQA定式化に適用可能であることを示す。
論文 参考訳(メタデータ) (2023-10-13T00:49:09Z) - Cross Pairwise Ranking for Unbiased Item Recommendation [57.71258289870123]
我々はCPR(Cross Pairwise Ranking)という新しい学習パラダイムを開発する。
CPRは、露出メカニズムを知らずに不偏の推奨を達成する。
理論的には、この方法が学習に対するユーザ/イテムの適合性の影響を相殺することを証明する。
論文 参考訳(メタデータ) (2022-04-26T09:20:27Z) - Debiased-CAM to mitigate systematic error with faithful visual
explanations of machine learning [10.819408603463426]
Debiased-CAM は様々なバイアスタイプやレベルにまたがって説明の忠実さを回復する。
シミュレーション研究において、この手法は予測精度を向上するだけでなく、非常に忠実な説明を生み出した。
論文 参考訳(メタデータ) (2022-01-30T14:42:21Z) - General Greedy De-bias Learning [163.65789778416172]
本稿では,関数空間における勾配降下のような偏りのあるモデルとベースモデルを優雅に訓練する一般グリーディ・デバイアス学習フレームワーク(GGD)を提案する。
GGDは、事前知識を持つタスク固有バイアスモデルと、事前知識を持たない自己アンサンブルバイアスモデルの両方の設定の下で、より堅牢なベースモデルを学ぶことができる。
論文 参考訳(メタデータ) (2021-12-20T14:47:32Z) - BiaSwap: Removing dataset bias with bias-tailored swapping augmentation [20.149645246997668]
ディープニューラルネットワークは、データセット固有のスプリットな相関に基づいて決定することが多く、偏りのないデータ分布を一般化することができない。
本稿では,バイアスタイプの監督を必要とせず,非バイアス表現を学習するための,バイアス調整強化に基づく新しいアプローチBiaSwapを提案する。
論文 参考訳(メタデータ) (2021-08-23T08:35:26Z) - Use HiResCAM instead of Grad-CAM for faithful explanations of
convolutional neural networks [89.56292219019163]
説明法は意味のある概念を学習し、素早い相関を悪用しないモデルの開発を容易にする。
一般的なニューラルネットワーク説明法であるGrad-CAMの、未認識の制限について説明する。
本稿では,モデルが各予測に使用する場所のみをハイライトするクラス固有の説明手法であるHiResCAMを提案する。
論文 参考訳(メタデータ) (2020-11-17T19:26:14Z) - Learning from Failure: Training Debiased Classifier from Biased
Classifier [76.52804102765931]
ニューラルネットワークは、所望の知識よりも学習が簡単である場合にのみ、素早い相関に依存することを学習していることを示す。
本稿では,一対のニューラルネットワークを同時にトレーニングすることで,障害に基づくデバイアス化手法を提案する。
本手法は,合成データセットと実世界のデータセットの両方において,各種バイアスに対するネットワークのトレーニングを大幅に改善する。
論文 参考訳(メタデータ) (2020-07-06T07:20:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。