論文の概要: Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations
- arxiv url: http://arxiv.org/abs/2103.10226v1
- Date: Thu, 18 Mar 2021 12:57:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-19 21:57:46.838401
- Title: Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations
- Title(参考訳): 異なる有価な説明を伴うトリビアル・カウンタリファクト・エクスプメンテーションを超えて
- Authors: Pau Rodriguez, Massimo Caccia, Alexandre Lacoste, Lee Zamparo, Issam
Laradji, Laurent Charlin, David Vazquez
- Abstract要約: コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
- 参考スコア(独自算出の注目度): 64.85696493596821
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explainability for machine learning models has gained considerable attention
within our research community given the importance of deploying more reliable
machine-learning systems. In computer vision applications, generative
counterfactual methods indicate how to perturb a model's input to change its
prediction, providing details about the model's decision-making. Current
counterfactual methods make ambiguous interpretations as they combine multiple
biases of the model and the data in a single counterfactual interpretation of
the model's decision. Moreover, these methods tend to generate trivial
counterfactuals about the model's decision, as they often suggest to exaggerate
or remove the presence of the attribute being classified. For the machine
learning practitioner, these types of counterfactuals offer little value, since
they provide no new information about undesired model or data biases. In this
work, we propose a counterfactual method that learns a perturbation in a
disentangled latent space that is constrained using a diversity-enforcing loss
to uncover multiple valuable explanations about the model's prediction.
Further, we introduce a mechanism to prevent the model from producing trivial
explanations. Experiments on CelebA and Synbols demonstrate that our model
improves the success rate of producing high-quality valuable explanations when
compared to previous state-of-the-art methods. We will publish the code.
- Abstract(参考訳): より信頼性の高い機械学習システムをデプロイすることの重要性から、機械学習モデルの説明可能性に大きな注目を集めています。
コンピュータビジョンの応用において、生成的反ファクト法はモデルの入力を摂動して予測を変更する方法を示し、モデルの意思決定の詳細を提供する。
現在のカウンターファクト法は、モデルとデータの複数のバイアスをモデルの決定の単一の逆ファクト解釈で組み合わせることで曖昧な解釈を行う。
さらに、これらの手法は、分類される属性の存在を誇張するか取り除くことをしばしば提案するので、モデルの決定に関する自明な反事実を生み出す傾向がある。
機械学習の実践者にとって、これらのカウンターファクトは、望ましくないモデルやデータバイアスに関する新しい情報を提供しないので、ほとんど価値を提供しない。
本研究では,モデルの予測に関する複数の重要な説明を明らかにするために,多様性を追求する損失を用いて制約された乱れ空間の摂動を学習する反実的手法を提案する。
さらに,モデルが自明な説明を生じないようにするメカニズムを提案する。
CelebAとSynbolsの実験では,従来の最先端手法と比較して,高品質な価値説明が得られた場合の成功率の向上が示されている。
コードを公開します。
関連論文リスト
- CNN-based explanation ensembling for dataset, representation and explanations evaluation [1.1060425537315088]
畳み込みモデルを用いた深層分類モデルによる説明文の要約の可能性について検討する。
実験と分析を通じて、モデル行動のより一貫性と信頼性のあるパターンを明らかにするために、説明を組み合わせることの意味を明らかにすることを目的とする。
論文 参考訳(メタデータ) (2024-04-16T08:39:29Z) - VCNet: A self-explaining model for realistic counterfactual generation [52.77024349608834]
事実的説明は、機械学習の決定を局所的に説明するための手法のクラスである。
本稿では,予測器と対実生成器を組み合わせたモデルアーキテクチャであるVCNet-Variational Counter Netを提案する。
我々はVCNetが予測を生成でき、また、別の最小化問題を解くことなく、反現実的な説明を生成できることを示した。
論文 参考訳(メタデータ) (2022-12-21T08:45:32Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - Explain, Edit, and Understand: Rethinking User Study Design for
Evaluating Model Explanations [97.91630330328815]
我々はクラウドソーシング研究を行い、真偽のホテルレビューと偽のホテルレビューを区別するために訓練された詐欺検出モデルと対話する。
単語の線形バッグモデルでは、トレーニング中に特徴係数にアクセスした参加者は、非説明制御と比較して、テストフェーズにおいてモデルの信頼性が大幅に低下する可能性があることを観察する。
論文 参考訳(メタデータ) (2021-12-17T18:29:56Z) - Feature Attributions and Counterfactual Explanations Can Be Manipulated [32.579094387004346]
本稿では,モデル非依存的特徴属性法を制御するバイアスモデルの設計方法について述べる。
これらの脆弱性は、敵がバイアス付きモデルをデプロイすることを可能にするが、説明はこのバイアスを明らかにしないため、ステークホルダーをモデルの信頼性を損なう。
我々は、CompASやCommunity & Crimeを含む実世界のデータセットの操作を評価し、実際に操作できる説明を見つける。
論文 参考訳(メタデータ) (2021-06-23T17:43:31Z) - Deducing neighborhoods of classes from a fitted model [68.8204255655161]
本稿では,新しいタイプの解釈可能な機械学習手法を提案する。
量子シフトを用いた分類モデルでは、特徴空間の予測クラスへの分割を理解するのに役立ちます。
基本的に、実際のデータポイント(または特定の関心点)を使用し、特定の特徴をわずかに引き上げたり減少させたりした後の予測の変化を観察する。
論文 参考訳(メタデータ) (2020-09-11T16:35:53Z) - Accurate and Intuitive Contextual Explanations using Linear Model Trees [0.0]
ローカルなポストホックモデル説明が広く採用されている。
技術手法の現状は、初歩的な手法を用いて説明すべき点の周囲に合成データを生成する。
我々は、合成データ生成にジェネレーティブ・アドバイサル・ネットワークを使用し、線形モデルツリーの形で断片的な線形モデルを訓練する。
論文 参考訳(メタデータ) (2020-09-11T10:13:12Z) - Explainable Recommender Systems via Resolving Learning Representations [57.24565012731325]
説明はユーザー体験を改善し、システムの欠陥を発見するのに役立つ。
本稿では,表現学習プロセスの透明性を向上させることによって,説明可能な新しい推薦モデルを提案する。
論文 参考訳(メタデータ) (2020-08-21T05:30:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。