論文の概要: CounterNet: End-to-End Training of Prediction Aware Counterfactual
Explanations
- arxiv url: http://arxiv.org/abs/2109.07557v3
- Date: Thu, 22 Jun 2023 09:17:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-23 18:31:34.941706
- Title: CounterNet: End-to-End Training of Prediction Aware Counterfactual
Explanations
- Title(参考訳): CounterNet: 予測のためのエンド・ツー・エンドトレーニング
- Authors: Hangzhi Guo, Thanh Hong Nguyen, Amulya Yadav
- Abstract要約: CounterNetは、予測モデルトレーニングと対実的(CF)説明の生成を統合する、エンドツーエンドの学習フレームワークである。
ポストホック法とは異なり、CounterNetは予測モデルとともにCF説明生成を1回だけ最適化することができる。
複数の実世界のデータセットに対する実験により、CounterNetは高品質な予測を生成することが示された。
- 参考スコア(独自算出の注目度): 12.313007847721215
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work presents CounterNet, a novel end-to-end learning framework which
integrates Machine Learning (ML) model training and the generation of
corresponding counterfactual (CF) explanations into a single end-to-end
pipeline. Counterfactual explanations offer a contrastive case, i.e., they
attempt to find the smallest modification to the feature values of an instance
that changes the prediction of the ML model on that instance to a predefined
output. Prior techniques for generating CF explanations suffer from two major
limitations: (i) all of them are post-hoc methods designed for use with
proprietary ML models -- as a result, their procedure for generating CF
explanations is uninformed by the training of the ML model, which leads to
misalignment between model predictions and explanations; and (ii) most of them
rely on solving separate time-intensive optimization problems to find CF
explanations for each input data point (which negatively impacts their
runtime). This work makes a novel departure from the prevalent post-hoc
paradigm (of generating CF explanations) by presenting CounterNet, an
end-to-end learning framework which integrates predictive model training and
the generation of counterfactual (CF) explanations into a single pipeline.
Unlike post-hoc methods, CounterNet enables the optimization of the CF
explanation generation only once together with the predictive model. We adopt a
block-wise coordinate descent procedure which helps in effectively training
CounterNet's network. Our extensive experiments on multiple real-world datasets
show that CounterNet generates high-quality predictions, and consistently
achieves 100% CF validity and low proximity scores (thereby achieving a
well-balanced cost-invalidity trade-off) for any new input instance, and runs
3X faster than existing state-of-the-art baselines.
- Abstract(参考訳): この研究は、機械学習(ML)モデルトレーニングとそれに対応する対実的(CF)説明を単一のエンドツーエンドパイプラインに統合する、新しいエンドツーエンド学習フレームワークであるCounterNetを提示する。
対実的な説明は対照的なケース、すなわち、そのインスタンス上のMLモデルの予測を事前定義された出力に変更するインスタンスの特徴値に対する最小限の変更を見つけようとするものである。
CF説明を生成する先行技術には2つの大きな制限がある。
(i)いずれもプロプライエタリなMLモデルで使用するように設計されたポストホックメソッドである -- その結果、CF説明を生成する手順は、MLモデルのトレーニングによって変更されず、モデル予測と説明の不一致につながる。
(ii)各入力データポイント(ランタイムに悪影響を及ぼす)のcf説明を見つけるために、それらのほとんどが別々の時間集約最適化の問題を解決することに依存している。
この研究は、予測モデルトレーニングとカウンターファクト(cf)説明を1つのパイプラインに統合したエンドツーエンド学習フレームワークである counternet を提示することで、一般的なポストホックパラダイム(cf説明を生成すること)から新たな脱却をもたらす。
ポストホック法とは異なり、CounterNetは予測モデルと合わせてCF説明生成の最適化を可能にする。
我々は、CounterNetのネットワークを効果的に訓練するのに役立つブロックワイド座標降下手順を採用する。
複数の実世界のデータセットに対する広範な実験により、CounterNetは高品質な予測を生成し、新しい入力インスタンスに対して100%CFの妥当性と低い近接スコアを一貫して達成し、既存の最先端ベースラインよりも3倍高速に動作します。
関連論文リスト
- Unsupervised Pre-training with Language-Vision Prompts for Low-Data Instance Segmentation [105.23631749213729]
低データ体制における教師なし事前学習のための新しい手法を提案する。
最近成功したプロンプト技術に触発されて,言語ビジョンプロンプトを用いた教師なし事前学習法を導入した。
提案手法は,低データ方式のCNNモデルよりも高速に収束し,性能がよいことを示す。
論文 参考訳(メタデータ) (2024-05-22T06:48:43Z) - Faithful Explanations of Black-box NLP Models Using LLM-generated
Counterfactuals [67.64770842323966]
NLPシステムの予測に関する因果的説明は、安全性を確保し、信頼を確立するために不可欠である。
既存の手法は、しばしばモデル予測を効果的または効率的に説明できない。
本稿では, 対物近似(CF)の2つの手法を提案する。
論文 参考訳(メタデータ) (2023-10-01T07:31:04Z) - Boosting Low-Data Instance Segmentation by Unsupervised Pre-training
with Saliency Prompt [103.58323875748427]
この研究は、低データ体制のための新しい教師なし事前学習ソリューションを提供する。
近年のPrompting技術の成功に触発されて,QEISモデルを強化した新しい事前学習手法を導入する。
実験結果から,本手法は3つのデータセット上でのいくつかのQEISモデルを大幅に向上させることが示された。
論文 参考訳(メタデータ) (2023-02-02T15:49:03Z) - VCNet: A self-explaining model for realistic counterfactual generation [52.77024349608834]
事実的説明は、機械学習の決定を局所的に説明するための手法のクラスである。
本稿では,予測器と対実生成器を組み合わせたモデルアーキテクチャであるVCNet-Variational Counter Netを提案する。
我々はVCNetが予測を生成でき、また、別の最小化問題を解くことなく、反現実的な説明を生成できることを示した。
論文 参考訳(メタデータ) (2022-12-21T08:45:32Z) - Harnessing the Power of Explanations for Incremental Training: A
LIME-Based Approach [6.244905619201076]
この研究では、モデル説明がフィードフォワードトレーニングにフィードバックされ、モデルをより一般化するのに役立つ。
このフレームワークは、シーケンシャルなテストセットのパフォーマンスを維持するために、Elastic Weight Consolidation (EWC)によるカスタム重み付き損失を取り入れている。
提案したカスタムトレーニング手順は、インクリメンタルラーニングセットアップのすべてのフェーズにおいて、0.5%から1.5%までの精度を一貫して向上させる。
論文 参考訳(メタデータ) (2022-11-02T18:16:17Z) - RoCourseNet: Distributionally Robust Training of a Prediction Aware
Recourse Model [29.057300578765663]
RoCourseNetは、将来のデータシフトに対して堅牢な予測とリコースを共同で最適化するトレーニングフレームワークである。
RoCourseNetは、ロバストな妥当性を96%以上達成し、ロバストな説明を生成する上で、最先端のベースラインを少なくとも10%上回っていることを示す。
論文 参考訳(メタデータ) (2022-06-01T18:18:18Z) - DualCF: Efficient Model Extraction Attack from Counterfactual
Explanations [57.46134660974256]
クラウドサービスプロバイダがMachine-Learning-as-a-Serviceプラットフォームをローンチした。
このような余分な情報は、必然的にクラウドモデルが、抽出攻撃に対してより脆弱になる。
本稿では,分類モデルを盗むためのクエリ効率を大幅に向上させる,新しい単純で効率的なクエリ手法を提案する。
論文 参考訳(メタデータ) (2022-05-13T08:24:43Z) - ReLACE: Reinforcement Learning Agent for Counterfactual Explanations of
Arbitrary Predictive Models [6.939617874336667]
本稿では,最適対実的説明を生成するためのモデルに依存しないアルゴリズムを提案する。
本手法は,DRLエージェントが相互作用する環境に類似するため,任意のブラックボックスモデルに容易に適用できる。
さらに,DRLエージェントのポリシーから説明可能な決定ルールを抽出し,CF自体を透過的に生成するアルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-22T17:08:49Z) - Explanation-Guided Training for Cross-Domain Few-Shot Classification [96.12873073444091]
クロスドメイン・ショット分類タスク(CD-FSC)は、データセットで表されるドメインをまたいで一般化する要件と、少数ショット分類を組み合わせたものである。
既存のFSCモデルに対する新しいトレーニング手法を提案する。
説明誘導学習はモデル一般化を効果的に改善することを示す。
論文 参考訳(メタデータ) (2020-07-17T07:28:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。