論文の概要: Robust Counterfactual Explanations for Tree-Based Ensembles
- arxiv url: http://arxiv.org/abs/2207.02739v1
- Date: Wed, 6 Jul 2022 15:20:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-07 13:18:50.932922
- Title: Robust Counterfactual Explanations for Tree-Based Ensembles
- Title(参考訳): 木に基づくアンサンブルのロバストな反事実説明
- Authors: Sanghamitra Dutta, Jason Long, Saumitra Mishra, Cecilia Tilli, Daniele
Magazzeni
- Abstract要約: 我々は、木ベースのアンサンブルに対して堅牢なカウンターファクトを生成する新しい戦略、RobXを提案する。
まず最初に、カウンターファクトの安定性と呼ばれる新しいメトリクスを紹介します。これは、リトレーニング中の変更をモデル化するために、カウンターファクトの堅牢さを定量化するものです。
- 参考スコア(独自算出の注目度): 22.13493030333195
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Counterfactual explanations inform ways to achieve a desired outcome from a
machine learning model. However, such explanations are not robust to certain
real-world changes in the underlying model (e.g., retraining the model,
changing hyperparameters, etc.), questioning their reliability in several
applications, e.g., credit lending. In this work, we propose a novel strategy
-- that we call RobX -- to generate robust counterfactuals for tree-based
ensembles, e.g., XGBoost. Tree-based ensembles pose additional challenges in
robust counterfactual generation, e.g., they have a non-smooth and
non-differentiable objective function, and they can change a lot in the
parameter space under retraining on very similar data. We first introduce a
novel metric -- that we call Counterfactual Stability -- that attempts to
quantify how robust a counterfactual is going to be to model changes under
retraining, and comes with desirable theoretical properties. Our proposed
strategy RobX works with any counterfactual generation method (base method) and
searches for robust counterfactuals by iteratively refining the counterfactual
generated by the base method using our metric Counterfactual Stability. We
compare the performance of RobX with popular counterfactual generation methods
(for tree-based ensembles) across benchmark datasets. The results demonstrate
that our strategy generates counterfactuals that are significantly more robust
(nearly 100% validity after actual model changes) and also realistic (in terms
of local outlier factor) over existing state-of-the-art methods.
- Abstract(参考訳): カウンターファクトの説明は、機械学習モデルから望ましい結果を得る方法を伝える。
しかし、そのような説明は、基礎となるモデル(例えば、モデルの再トレーニング、ハイパーパラメータの変更など)における特定の現実世界の変化に対して堅牢ではない。
本稿では、木ベースのアンサンブル(例えばxgboost)に対してロバストな反事実を生成するための新しい戦略を提案する。
木に基づくアンサンブルは、堅牢な反ファクト生成において、例えば、非滑らかで微分不可能な目的関数を持ち、非常に類似したデータで再訓練されたパラメータ空間において多くの変更を行うことができる。
まず最初に、再トレーニング下での変化をモデル化するために、反事実がどれほど頑健であるかを定量化しようとする、反事実安定性と呼ばれる新しいメトリックを導入し、望ましい理論的特性を伴います。
提案手法は,任意の反ファクト生成法(ベース法)で動作し,基準法で生成した反ファクトを基準法で反復的に改善することにより,堅牢な反ファクト生成を探索する。
我々は,RobXの性能を,ベンチマークデータセット間で(木に基づくアンサンブルのための)一般的な反ファクト生成手法と比較する。
その結果,提案手法は,既存手法よりもかなり頑健(実モデル変更後ほぼ100%有効)で,かつ現実的(局所的外れ要因の観点で)な偽物を生成することがわかった。
関連論文リスト
- Group-based Robustness: A General Framework for Customized Robustness in
the Real World [16.376584375681812]
対象とするロバスト度を計測する従来の指標は、あるソースクラスから別のターゲットクラスへの攻撃に耐えるモデルの能力を適切に反映していないことが分かりました。
我々は、既存のメトリクスを補完し、特定の攻撃シナリオにおけるモデル性能を評価するのに適した新しい指標であるグループベースロバストネスを提案する。
同様の成功率で、新たな損失関数を用いた回避サンプルの発見は、対象とするクラスの数に匹敵する程度に削減できることが示される。
論文 参考訳(メタデータ) (2023-06-29T01:07:12Z) - VCNet: A self-explaining model for realistic counterfactual generation [52.77024349608834]
事実的説明は、機械学習の決定を局所的に説明するための手法のクラスである。
本稿では,予測器と対実生成器を組み合わせたモデルアーキテクチャであるVCNet-Variational Counter Netを提案する。
我々はVCNetが予測を生成でき、また、別の最小化問題を解くことなく、反現実的な説明を生成できることを示した。
論文 参考訳(メタデータ) (2022-12-21T08:45:32Z) - DORE: Document Ordered Relation Extraction based on Generative Framework [56.537386636819626]
本稿では,既存のDocREモデルの根本原因について検討する。
本稿では,モデルが学習しやすく,決定論的な関係行列から記号列と順序列を生成することを提案する。
4つのデータセットに対する実験結果から,提案手法は生成型DocREモデルの性能を向上させることができることが示された。
論文 参考訳(メタデータ) (2022-10-28T11:18:10Z) - Formalising the Robustness of Counterfactual Explanations for Neural
Networks [16.39168719476438]
本稿では,CFXのロバスト性を検証するために,インターバルニューラルネットワークに基づく抽象化フレームワークを提案する。
既存のメソッドにDelta-robustnessを組み込むことで、確実に堅牢なCFXを提供できることを示す。
論文 参考訳(メタデータ) (2022-08-31T14:11:23Z) - HyperImpute: Generalized Iterative Imputation with Automatic Model
Selection [77.86861638371926]
カラムワイズモデルを適応的かつ自動的に構成するための一般化反復計算フレームワークを提案する。
既製の学習者,シミュレータ,インターフェースを備えた具体的な実装を提供する。
論文 参考訳(メタデータ) (2022-06-15T19:10:35Z) - Scalable Whitebox Attacks on Tree-based Models [2.3186641356561646]
本稿では,木アンサンブルモデルに対する新しいホワイトボックス対逆ロバスト性試験手法を提案する。
サンプリングとログデリバティブのトリックを活用することで、提案手法は以前管理不能だったタスクのテストまでスケールアップできる。
論文 参考訳(メタデータ) (2022-03-31T21:36:20Z) - Robust Binary Models by Pruning Randomly-initialized Networks [57.03100916030444]
ランダムな二元ネットワークから敵攻撃に対して頑健なモデルを得る方法を提案する。
ランダムな二元ネットワークを切断することにより、ロバストモデルの構造を学習する。
本手法は, 敵攻撃の有無で, 強力な抽選券仮説を立証する。
論文 参考訳(メタデータ) (2022-02-03T00:05:08Z) - Towards Robust and Reliable Algorithmic Recourse [11.887537452826624]
モデルシフトに堅牢なリコースを見つけるための敵対的トレーニングを活用する新しいフレームワークであるRObust Algorithmic Recourse(ROAR)を提案します。
また,モデルシフトにロバストなリコースの構築の重要性を強調する詳細な理論解析を行う。
論文 参考訳(メタデータ) (2021-02-26T17:38:52Z) - Probabilistic Case-based Reasoning for Open-World Knowledge Graph
Completion [59.549664231655726]
ケースベース推論(CBR)システムは,与えられた問題に類似した事例を検索することで,新たな問題を解決する。
本稿では,知識ベース(KB)の推論において,そのようなシステムが実現可能であることを示す。
提案手法は,KB内の類似エンティティからの推論パスを収集することにより,エンティティの属性を予測する。
論文 参考訳(メタデータ) (2020-10-07T17:48:12Z) - Meta-Learned Confidence for Few-shot Learning [60.6086305523402]
数ショットのメトリックベースのアプローチのための一般的なトランスダクティブ推論手法は、最も確実なクエリ例の平均で、各クラスのプロトタイプを更新することである。
本稿では,各クエリの信頼度をメタラーニングして,ラベルのないクエリに最適な重みを割り当てる手法を提案する。
4つのベンチマークデータセットに対してメタ学習の信頼度で、少数ショットの学習モデルを検証した。
論文 参考訳(メタデータ) (2020-02-27T10:22:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。