論文の概要: On the Robustness of Counterfactual Explanations to Adverse
Perturbations
- arxiv url: http://arxiv.org/abs/2201.09051v1
- Date: Sat, 22 Jan 2022 13:57:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-25 16:15:03.434279
- Title: On the Robustness of Counterfactual Explanations to Adverse
Perturbations
- Title(参考訳): 逆摂動に対する対実的説明のロバスト性について
- Authors: Marco Virgolin and Saverio Fracaros
- Abstract要約: 我々は、不運な状況によって自然に起こりうる、有害な摂動に対する堅牢性について検討する。
私たちは堅牢性の定義を2つ提供します。
我々の実験では、CEは多くの場合、堅牢ではないことが示され、もし悪質な摂動が起これば、彼らが要求する介入は予想よりもはるかにコストがかかる可能性がある。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Counterfactual explanations (CEs) are a powerful means for understanding how
decisions made by algorithms can be changed. Researchers have proposed a number
of desiderata that CEs should meet to be practically useful, such as requiring
minimal effort to enact, or complying with causal models. We consider a further
aspect to improve the usability of CEs: robustness to adverse perturbations,
which may naturally happen due to unfortunate circumstances. Since CEs
typically prescribe a sparse form of intervention (i.e., only a subset of the
features should be changed), we provide two definitions of robustness, which
concern, respectively, the features to change and to keep as they are. These
definitions are workable in that they can be incorporated as penalty terms in
the loss functions that are used for discovering CEs. To experiment with the
proposed definitions of robustness, we create and release code where five data
sets (commonly used in the field of fair and explainable machine learning) have
been enriched with feature-specific annotations that can be used to sample
meaningful perturbations. Our experiments show that CEs are often not robust
and, if adverse perturbations take place, the intervention they prescribe may
require a much larger cost than anticipated, or even become impossible.
However, accounting for robustness in the search process, which can be done
rather easily, allows discovering robust CEs systematically. Robust CEs are
resilient to adverse perturbations: additional intervention to contrast
perturbations is much less costly than for non-robust CEs. Our code is
available at: https://github.com/marcovirgolin/robust-counterfactuals
- Abstract(参考訳): 対実的説明(CE)は、アルゴリズムによる決定をどのように変更するかを理解するための強力な手段である。
研究者たちは、cesが実際に有効になるためには最小限の努力が必要、因果モデルに従うなど、いくつかのデシデラータを提案している。
我々は、CEのユーザビリティを改善するための更なる側面として、不運な状況によって自然に起こる有害な摂動に対する堅牢性を考える。
一般的にcesは、ばらばらな形式の介入(つまり、機能のサブセットのみを変更するべきだ)を規定しているため、私たちは、それぞれ、変更すべき機能と、その状態を維持するための2つの堅牢性の定義を提供する。
これらの定義は、CEの発見に使用される損失関数のペナルティ項として組み込むことが可能である。
提案したロバスト性の定義を実験するために、5つのデータセット(通常、公正で説明可能な機械学習の分野で使用される)が有意義な摂動をサンプリングするのに使える機能固有のアノテーションで濃縮されたコードを作成し、リリースする。
我々の実験は、CEがしばしば堅牢ではないことを示し、もし有害な摂動が発生した場合、彼らが要求する介入は予想よりもはるかにコストがかかるか、あるいは不可能になるかもしれないことを示している。
しかし,検索プロセスにおけるロバスト性の説明は比較的容易であり,体系的にロバストCEを発見できる。
ロバストCEは有害な摂動に対して耐性があり、コントラストな摂動に対する追加の介入は、非破壊CEよりもはるかにコストがかかる。
私たちのコードは、https://github.com/marcovirgolin/robust-counterfactualsで利用可能です。
関連論文リスト
- Refining Counterfactual Explanations With Joint-Distribution-Informed Shapley Towards Actionable Minimality [6.770853093478073]
対実的説明(CE)は、観測データによく似ているが、異なる機械学習(ML)モデル出力を生成するデータポイントを特定する。
既存のCEメソッドは、説明に含まれる不要な特徴の変化のため、実行可能効率が欠如していることが多い。
本稿では,CEの有効性を維持しつつ,必要な特徴変化を最小限に抑える手法を提案する。
論文 参考訳(メタデータ) (2024-10-07T18:31:19Z) - Automatically Adaptive Conformal Risk Control [49.95190019041905]
本稿では,テストサンプルの難易度に適応して,統計的リスクの近似的条件制御を実現する手法を提案する。
我々のフレームワークは、ユーザが提供するコンディショニングイベントに基づく従来のコンディショニングリスク制御を超えて、コンディショニングに適した関数クラスのアルゴリズム的、データ駆動決定を行う。
論文 参考訳(メタデータ) (2024-06-25T08:29:32Z) - Verified Training for Counterfactual Explanation Robustness under Data
Shift [18.156341188646348]
対実的説明(CE)は、予測を望ましいクラスに変更するために入力にどのような変更が必要なのかを記述することによって、機械学習モデルの解釈可能性を高める。
既存のアプローチは、単一の固定されたモデルに焦点を当ててCEを生成し、CEの将来的な妥当性に関する正式な保証は提供しない。
本稿では,分類器と説明器を協調的に訓練し,生成したCEのロバスト性をモデルシフトに明示的に考慮するアプローチであるVeriTraCERを紹介する。
論文 参考訳(メタデータ) (2024-03-06T15:06:16Z) - Introducing User Feedback-based Counterfactual Explanations (UFCE) [49.1574468325115]
対実的説明(CE)は、XAIで理解可能な説明を生成するための有効な解決策として浮上している。
UFCEは、アクション可能な機能のサブセットで最小限の変更を決定するために、ユーザー制約を含めることができる。
UFCEは、textitproximity(英語版)、textitsparsity(英語版)、textitfeasibility(英語版)の2つのよく知られたCEメソッドより優れている。
論文 参考訳(メタデータ) (2024-02-26T20:09:44Z) - Provably Robust and Plausible Counterfactual Explanations for Neural Networks via Robust Optimisation [19.065904250532995]
PROPLACE(Provably RObust and PLAUSible Counterfactual Explanations)を提案する。
証明可能な堅牢なCEを計算し、その収束性、健全性、完全性を証明するための反復アルゴリズムを定式化する。
ProPLACEは,3つの評価点において,計測値に対する最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-09-22T00:12:09Z) - Flexible and Robust Counterfactual Explanations with Minimal Satisfiable
Perturbations [56.941276017696076]
我々は、最小満足度摂動(CEMSP)を用いた対実的説明法という概念的に単純だが効果的な解を提案する。
CEMSPは、意味論的に意味のある正常範囲の助けを借りて、異常な特徴の値を変更することを制限している。
既存の手法と比較して、我々は合成データセットと実世界のデータセットの両方で包括的な実験を行い、柔軟性を維持しつつ、より堅牢な説明を提供することを示した。
論文 参考訳(メタデータ) (2023-09-09T04:05:56Z) - Calibrated Explanations: with Uncertainty Information and
Counterfactuals [0.1843404256219181]
Calibrated Explanations (CE)はVenn-Abersの基礎の上に構築されている。
これは特徴量とモデルの確率推定の両方に対して不確実な定量化を提供する。
25のベンチマークデータセットによる評価の結果は,CEの有効性を裏付けるものだった。
論文 参考訳(メタデータ) (2023-05-03T17:52:41Z) - Generating robust counterfactual explanations [60.32214822437734]
カウンターファクトの質は、現実主義、行動可能性、妥当性、堅牢性など、いくつかの基準に依存する。
本稿では, 対実的入力変化に対するロバスト性に着目し, 対実的入力変化に対するロバスト性に着目した。
我々は,このトレードオフを効果的に管理し,ユーザに対して最小限の堅牢性を保証するとともに,ロバストなデファクトを生成する新しいフレームワークであるCROCOを提案する。
論文 参考訳(メタデータ) (2023-04-24T09:00:31Z) - Robustness and Accuracy Could Be Reconcilable by (Proper) Definition [109.62614226793833]
強靭性と精度のトレードオフは、敵文学において広く研究されている。
局所的不変性の帰納的バイアスを課す不適切に定義された頑健な誤差に由来する可能性がある。
定義上、SCOREは、最悪のケースの不確実性に対処しながら、堅牢性と正確性の間の和解を促進する。
論文 参考訳(メタデータ) (2022-02-21T10:36:09Z) - Provable tradeoffs in adversarially robust classification [96.48180210364893]
我々は、ロバストなイソペリメトリに関する確率論の最近のブレークスルーを含む、新しいツールを開発し、活用する。
この結果から,データの不均衡時に増加する標準精度とロバスト精度の基本的なトレードオフが明らかになった。
論文 参考訳(メタデータ) (2020-06-09T09:58:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。