論文の概要: CounterNet: End-to-End Training of Counterfactual Aware Predictions
- arxiv url: http://arxiv.org/abs/2109.07557v1
- Date: Wed, 15 Sep 2021 20:09:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-18 07:06:32.381154
- Title: CounterNet: End-to-End Training of Counterfactual Aware Predictions
- Title(参考訳): counternet:偽認識予測のエンドツーエンドトレーニング
- Authors: Hangzhi Guo, Thanh Hong Nguyen, Amulya Yadav
- Abstract要約: CounterNetは予測モデルトレーニングと対実的説明生成のためのエンドツーエンドの学習フレームワークである。
我々は,CounterNetのネットワークを効果的にトレーニングする上で有効な,バックプロパゲーションの新たなバリエーションを提案する。
その結果、CounterNetは、既存の最先端ベースラインよりもはるかに高速な新しい入力インスタンスに対して、高品質な予測と、それに対応するCF例(高い妥当性を持つ)を生成した。
- 参考スコア(独自算出の注目度): 13.31740147468576
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work presents CounterNet, a novel end-to-end learning framework which
integrates the predictive model training and counterfactual (CF) explanation
generation into a single end-to-end pipeline. Counterfactual explanations
attempt to find the smallest modification to the feature values of an instance
that changes the prediction of the ML model to a predefined output. Prior CF
explanation techniques rely on solving separate time-intensive optimization
problems for every single input instance to find CF examples, and also suffer
from the misalignment of objectives between model predictions and explanations,
which leads to significant shortcomings in the quality of CF explanations.
CounterNet, on the other hand, integrates both prediction and explanation in
the same framework, which enables the optimization of the CF example generation
only once together with the predictive model. We propose a novel variant of
back-propagation which can help in effectively training CounterNet's network.
Finally, we conduct extensive experiments on multiple real-world datasets. Our
results show that CounterNet generates high-quality predictions, and
corresponding CF examples (with high validity) for any new input instance
significantly faster than existing state-of-the-art baselines.
- Abstract(参考訳): 本稿では、予測モデルトレーニングとカウンターファクト(cf)説明生成を単一のエンドツーエンドパイプラインに統合した、新しいエンドツーエンド学習フレームワークであるcounternetを提案する。
対実的な説明は、MLモデルの予測を事前定義された出力に変換するインスタンスの特徴値に対する最小限の変更を見つけようとする。
事前のcf説明手法は、各入力インスタンスの個別の時間的最適化問題を解決してcfの例を見つけ、またモデル予測と説明の間の目的の不一致に苦しむため、cf説明の品質に重大な欠点が生じる。
一方、CounterNetは、予測と説明の両方を同じフレームワークに統合し、予測モデルとともにCFサンプル生成を1回だけ最適化することができる。
本稿では,カウンタネットのネットワークを効果的に訓練するための新しいバックプロパゲーション手法を提案する。
最後に,複数の実世界のデータセットについて広範な実験を行う。
その結果、counternetは高品質な予測を生成し、既存の最先端のベースラインよりもはるかに高速に新しい入力インスタンスに対して対応するcfサンプル(有効性が高い)を生成することがわかった。
関連論文リスト
- Unsupervised Pre-training with Language-Vision Prompts for Low-Data Instance Segmentation [105.23631749213729]
低データ体制における教師なし事前学習のための新しい手法を提案する。
最近成功したプロンプト技術に触発されて,言語ビジョンプロンプトを用いた教師なし事前学習法を導入した。
提案手法は,低データ方式のCNNモデルよりも高速に収束し,性能がよいことを示す。
論文 参考訳(メタデータ) (2024-05-22T06:48:43Z) - Faithful Explanations of Black-box NLP Models Using LLM-generated
Counterfactuals [67.64770842323966]
NLPシステムの予測に関する因果的説明は、安全性を確保し、信頼を確立するために不可欠である。
既存の手法は、しばしばモデル予測を効果的または効率的に説明できない。
本稿では, 対物近似(CF)の2つの手法を提案する。
論文 参考訳(メタデータ) (2023-10-01T07:31:04Z) - Boosting Low-Data Instance Segmentation by Unsupervised Pre-training
with Saliency Prompt [103.58323875748427]
この研究は、低データ体制のための新しい教師なし事前学習ソリューションを提供する。
近年のPrompting技術の成功に触発されて,QEISモデルを強化した新しい事前学習手法を導入する。
実験結果から,本手法は3つのデータセット上でのいくつかのQEISモデルを大幅に向上させることが示された。
論文 参考訳(メタデータ) (2023-02-02T15:49:03Z) - VCNet: A self-explaining model for realistic counterfactual generation [52.77024349608834]
事実的説明は、機械学習の決定を局所的に説明するための手法のクラスである。
本稿では,予測器と対実生成器を組み合わせたモデルアーキテクチャであるVCNet-Variational Counter Netを提案する。
我々はVCNetが予測を生成でき、また、別の最小化問題を解くことなく、反現実的な説明を生成できることを示した。
論文 参考訳(メタデータ) (2022-12-21T08:45:32Z) - Harnessing the Power of Explanations for Incremental Training: A
LIME-Based Approach [6.244905619201076]
この研究では、モデル説明がフィードフォワードトレーニングにフィードバックされ、モデルをより一般化するのに役立つ。
このフレームワークは、シーケンシャルなテストセットのパフォーマンスを維持するために、Elastic Weight Consolidation (EWC)によるカスタム重み付き損失を取り入れている。
提案したカスタムトレーニング手順は、インクリメンタルラーニングセットアップのすべてのフェーズにおいて、0.5%から1.5%までの精度を一貫して向上させる。
論文 参考訳(メタデータ) (2022-11-02T18:16:17Z) - RoCourseNet: Distributionally Robust Training of a Prediction Aware
Recourse Model [29.057300578765663]
RoCourseNetは、将来のデータシフトに対して堅牢な予測とリコースを共同で最適化するトレーニングフレームワークである。
RoCourseNetは、ロバストな妥当性を96%以上達成し、ロバストな説明を生成する上で、最先端のベースラインを少なくとも10%上回っていることを示す。
論文 参考訳(メタデータ) (2022-06-01T18:18:18Z) - DualCF: Efficient Model Extraction Attack from Counterfactual
Explanations [57.46134660974256]
クラウドサービスプロバイダがMachine-Learning-as-a-Serviceプラットフォームをローンチした。
このような余分な情報は、必然的にクラウドモデルが、抽出攻撃に対してより脆弱になる。
本稿では,分類モデルを盗むためのクエリ効率を大幅に向上させる,新しい単純で効率的なクエリ手法を提案する。
論文 参考訳(メタデータ) (2022-05-13T08:24:43Z) - ReLACE: Reinforcement Learning Agent for Counterfactual Explanations of
Arbitrary Predictive Models [6.939617874336667]
本稿では,最適対実的説明を生成するためのモデルに依存しないアルゴリズムを提案する。
本手法は,DRLエージェントが相互作用する環境に類似するため,任意のブラックボックスモデルに容易に適用できる。
さらに,DRLエージェントのポリシーから説明可能な決定ルールを抽出し,CF自体を透過的に生成するアルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-22T17:08:49Z) - Explanation-Guided Training for Cross-Domain Few-Shot Classification [96.12873073444091]
クロスドメイン・ショット分類タスク(CD-FSC)は、データセットで表されるドメインをまたいで一般化する要件と、少数ショット分類を組み合わせたものである。
既存のFSCモデルに対する新しいトレーニング手法を提案する。
説明誘導学習はモデル一般化を効果的に改善することを示す。
論文 参考訳(メタデータ) (2020-07-17T07:28:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。