論文の概要: VCNet: A self-explaining model for realistic counterfactual generation
- arxiv url: http://arxiv.org/abs/2212.10847v1
- Date: Wed, 21 Dec 2022 08:45:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-22 14:00:59.194489
- Title: VCNet: A self-explaining model for realistic counterfactual generation
- Title(参考訳): vcnet:現実的な反事実生成のための自己説明モデル
- Authors: Victor Guyomard, Fran\c{c}oise Fessant, Thomas Guyet (BEAGLE),
Tassadit Bouadi (LACODAM, UR1), Alexandre Termier (LACODAM, UR1)
- Abstract要約: 事実的説明は、機械学習の決定を局所的に説明するための手法のクラスである。
本稿では,予測器と対実生成器を組み合わせたモデルアーキテクチャであるVCNet-Variational Counter Netを提案する。
我々はVCNetが予測を生成でき、また、別の最小化問題を解くことなく、反現実的な説明を生成できることを示した。
- 参考スコア(独自算出の注目度): 52.77024349608834
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Counterfactual explanation is a common class of methods to make local
explanations of machine learning decisions. For a given instance, these methods
aim to find the smallest modification of feature values that changes the
predicted decision made by a machine learning model. One of the challenges of
counterfactual explanation is the efficient generation of realistic
counterfactuals. To address this challenge, we propose VCNet-Variational
Counter Net-a model architecture that combines a predictor and a counterfactual
generator that are jointly trained, for regression or classification tasks.
VCNet is able to both generate predictions, and to generate counterfactual
explanations without having to solve another minimisation problem. Our
contribution is the generation of counterfactuals that are close to the
distribution of the predicted class. This is done by learning a variational
autoencoder conditionally to the output of the predictor in a join-training
fashion. We present an empirical evaluation on tabular datasets and across
several interpretability metrics. The results are competitive with the
state-of-the-art method.
- Abstract(参考訳): 事実的説明は、機械学習の決定を局所的に説明するための一般的な方法のクラスである。
ある例では、これらの手法は、機械学習モデルによってなされる予測された決定を変更する特徴値の最小の変更を見つけることを目的としている。
反事実的説明の課題の1つは、現実的な反事実の効率的な生成である。
この課題に対処するために、回帰や分類タスクのために共同で訓練された予測器と対実生成器を組み合わせたVCNet-Variational Counter Net-aモデルアーキテクチャを提案する。
VCNetは、予測を生成できると同時に、別の最小化問題を解決する必要なしに、反実的な説明を生成することができる。
我々の貢献は、予測されたクラスの分布に近い反事実の生成である。
これは、予測子の出力に条件付き変分オートエンコーダを結合学習方式で学習することによる。
表形式のデータセットおよびいくつかの解釈可能性指標に関する実証的評価を示す。
その結果は最先端の手法と競合する。
関連論文リスト
- Attribute-to-Delete: Machine Unlearning via Datamodel Matching [65.13151619119782]
機械学習 -- 事前訓練された機械学習モデルで、小さな"ターゲットセット"トレーニングデータを効率的に削除する -- は、最近関心を集めている。
最近の研究では、機械学習技術はこのような困難な環境では耐えられないことが示されている。
論文 参考訳(メタデータ) (2024-10-30T17:20:10Z) - Generating collective counterfactual explanations in score-based
classification via mathematical optimization [4.281723404774889]
インスタンスの反実的な説明は、このインスタンスを最小限に修正して、摂動インスタンスを望ましいクラスに分類する方法を示している。
カウンターファクト・アナリティクスの文献の多くは、単一インスタンスの単一カウントファクト・セッティングに焦点を当てている。
新規な数学的最適化モデルにより、興味ある群における各インスタンスに対する対実的説明を提供する。
論文 参考訳(メタデータ) (2023-10-19T15:18:42Z) - Semi-supervised counterfactual explanations [3.6810543937967912]
トレーニングデータと同じデータ分布にある反実的説明を生成するという課題に対処する。
この要件は, 自動エンコーダ再構築損失を, 対物探索プロセスに組み込むことによって解決されている。
本稿では,クラスタグ付き入力データを用いた半教師付き方式で自動エンコーダを訓練した場合の対実的説明の解釈性をさらに向上することを示す。
論文 参考訳(メタデータ) (2023-03-22T15:17:16Z) - Stochastic Deep Networks with Linear Competing Units for Model-Agnostic
Meta-Learning [4.97235247328373]
本研究は,LWTA(Local winner-takes-all)アクティベーションを伴うディープネットワークを考慮したメタラーニング(ML)に対処する。
このタイプのネットワークユニットは、ユニットが1つのユニットだけがゼロでない出力を生成するブロックに編成されるため、各モデルレイヤからスパース表現が生成される。
提案手法は,数ショット画像の分類と回帰実験における最先端の予測精度と,アクティブな学習環境における予測誤差の低減を実現する。
論文 参考訳(メタデータ) (2022-08-02T16:19:54Z) - Value-Consistent Representation Learning for Data-Efficient
Reinforcement Learning [105.70602423944148]
本稿では,意思決定に直接関連のある表現を学習するための,VCR(Value-Consistent Expression Learning)という新しい手法を提案する。
この想像された状態と環境によって返される実状態とを一致させる代わりに、VCRは両方の状態に$Q$-valueヘッドを適用し、2つのアクション値の分布を得る。
検索不要なRLアルゴリズムに対して,提案手法が新たな最先端性能を実現することが実証された。
論文 参考訳(メタデータ) (2022-06-25T03:02:25Z) - Explain, Edit, and Understand: Rethinking User Study Design for
Evaluating Model Explanations [97.91630330328815]
我々はクラウドソーシング研究を行い、真偽のホテルレビューと偽のホテルレビューを区別するために訓練された詐欺検出モデルと対話する。
単語の線形バッグモデルでは、トレーニング中に特徴係数にアクセスした参加者は、非説明制御と比較して、テストフェーズにおいてモデルの信頼性が大幅に低下する可能性があることを観察する。
論文 参考訳(メタデータ) (2021-12-17T18:29:56Z) - CounterNet: End-to-End Training of Prediction Aware Counterfactual
Explanations [12.313007847721215]
CounterNetは、予測モデルトレーニングと対実的(CF)説明の生成を統合する、エンドツーエンドの学習フレームワークである。
ポストホック法とは異なり、CounterNetは予測モデルとともにCF説明生成を1回だけ最適化することができる。
複数の実世界のデータセットに対する実験により、CounterNetは高品質な予測を生成することが示された。
論文 参考訳(メタデータ) (2021-09-15T20:09:13Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Identifying and Compensating for Feature Deviation in Imbalanced Deep
Learning [59.65752299209042]
このようなシナリオ下でのConvNetの学習について検討する。
私たちは、ConvNetがマイナーなクラスにかなり適合していることに気づきました。
クラス依存型温度トレーニング(CDT)のConvNetの導入を提案する。
論文 参考訳(メタデータ) (2020-01-06T03:52:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。