論文の概要: Robust Counterfactual Explanations for Random Forests
- arxiv url: http://arxiv.org/abs/2205.14116v1
- Date: Fri, 27 May 2022 17:28:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-30 15:21:03.170528
- Title: Robust Counterfactual Explanations for Random Forests
- Title(参考訳): ランダム森林に対するロバストな反事実的説明
- Authors: Alexandre Forel, Axel Parmentier, Thibaut Vidal
- Abstract要約: 本研究では,アンサンブルモデルのロバスト性とベース学習者のロバスト性との関係について検討する。
既存の手法が驚くほど低いロバスト性を与えることを示す: 単純な反事実の妥当性は、ほとんどのデータセットで50%以下である。
本手法は, 反実的説明から初期観測までの距離をわずかに増加させるだけで, 高いロバスト性を実現する。
- 参考スコア(独自算出の注目度): 76.84947521482631
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Counterfactual explanations describe how to modify a feature vector in order
to flip the outcome of a trained classifier. Several heuristic and optimal
methods have been proposed to generate these explanations. However, the
robustness of counterfactual explanations when the classifier is re-trained has
yet to be studied. Our goal is to obtain counterfactual explanations for random
forests that are robust to algorithmic uncertainty. We study the link between
the robustness of ensemble models and the robustness of base learners and frame
the generation of robust counterfactual explanations as a chance-constrained
optimization problem. We develop a practical method with good empirical
performance and provide finite-sample and asymptotic guarantees for simple
random forests of stumps. We show that existing methods give surprisingly low
robustness: the validity of naive counterfactuals is below $50\%$ on most data
sets and can fall to $20\%$ on large problem instances with many features. Even
with high plausibility, counterfactual explanations often exhibit low
robustness to algorithmic uncertainty. In contrast, our method achieves high
robustness with only a small increase in the distance from counterfactual
explanations to their initial observations. Furthermore, we highlight the
connection between the robustness of counterfactual explanations and the
predictive importance of features.
- Abstract(参考訳): 否定的な説明は、訓練された分類器の結果を反転させるために特徴ベクトルを変更する方法を記述する。
これらの説明を生成するために、いくつかのヒューリスティックで最適な方法が提案されている。
しかし、分類器の再訓練時の反実的説明の堅牢性はまだ研究されていない。
本研究の目的は,アルゴリズム的不確実性に頑健なランダム林に対する反事実的説明を得ることである。
本研究では,アンサンブルモデルのロバスト性とベース学習者のロバスト性との関係を考察し,確率制約付き最適化問題として,ロバストな対実的説明の生成を考察する。
経験的性能に優れた実用的手法を開発し,切り株の単純なランダム林に対する有限サンプルおよび漸近保証を提供する。
我々は、既存の手法が驚くほど低いロバスト性をもたらすことを示している: 多くのデータセットにおいて、単純対実の妥当性は50 %以下であり、多くの特徴を持つ大問題インスタンスでは20 %以下になる可能性がある。
可能性が高くても、反事実的説明はしばしばアルゴリズムの不確実性に対して低いロバスト性を示す。
対照的に,本手法は,反実的説明から初期観測までの距離をわずかに増加させるだけで,高いロバスト性を実現する。
さらに,反事実的説明のロバスト性と特徴の予測的重要性との関係を強調する。
関連論文リスト
- Promoting Counterfactual Robustness through Diversity [10.223545393731115]
対物的説明者は、入力の小さな変更が説明に大きな変更をもたらすという意味で、堅牢性に欠ける可能性がある。
本稿では,多様性基準を用いた近似アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-12-11T17:49:25Z) - Generating robust counterfactual explanations [60.32214822437734]
カウンターファクトの質は、現実主義、行動可能性、妥当性、堅牢性など、いくつかの基準に依存する。
本稿では, 対実的入力変化に対するロバスト性に着目し, 対実的入力変化に対するロバスト性に着目した。
我々は,このトレードオフを効果的に管理し,ユーザに対して最小限の堅牢性を保証するとともに,ロバストなデファクトを生成する新しいフレームワークであるCROCOを提案する。
論文 参考訳(メタデータ) (2023-04-24T09:00:31Z) - Explanation Selection Using Unlabeled Data for Chain-of-Thought
Prompting [80.9896041501715]
非専門家によって書かれたオフ・ザ・シェルフの説明のように、タスクのために"チューニング"されていない説明は、中途半端なパフォーマンスをもたらす可能性がある。
本稿では,ブラックボックス方式で説明拡散プロンプトを最適化する方法の課題に対処する。
論文 参考訳(メタデータ) (2023-02-09T18:02:34Z) - Confidence-aware Training of Smoothed Classifiers for Certified
Robustness [75.95332266383417]
我々は「ガウス雑音下での精度」を、入力に対する対角的ロバスト性の容易に計算可能なプロキシとして利用する。
実験の結果, 提案手法は, 最先端の訓練手法による信頼性向上を継続的に示すことがわかった。
論文 参考訳(メタデータ) (2022-12-18T03:57:12Z) - Robust Explanation Constraints for Neural Networks [33.14373978947437]
ニューラルネットワークの意図で使われるポストホックな説明法は、しばしば彼らの出力を信頼するのに役立つと言われている。
我々のトレーニング方法は、ニューラルネットワークを学習できる唯一の方法であり、6つのテストネットワークでテストされた堅牢性に関する洞察を持つ。
論文 参考訳(メタデータ) (2022-12-16T14:40:25Z) - Logical Satisfiability of Counterfactuals for Faithful Explanations in
NLI [60.142926537264714]
本稿では, 忠実度スルー・カウンタファクトの方法論について紹介する。
これは、説明に表される論理述語に基づいて、反実仮説を生成する。
そして、そのモデルが表現された論理と反ファクトの予測が一致しているかどうかを評価する。
論文 参考訳(メタデータ) (2022-05-25T03:40:59Z) - Optimal Counterfactual Explanations in Tree Ensembles [3.8073142980733]
我々は「最適」な説明を目的としたモデルに基づく探索を提唱し、効率的な混合整数プログラミング手法を提案する。
孤立林は我々のフレームワーク内でモデル化され、低いアウトリーチスコアで妥当な説明に焦点を絞ることができることを示す。
論文 参考訳(メタデータ) (2021-06-11T22:44:27Z) - Search Methods for Sufficient, Socially-Aligned Feature Importance
Explanations with In-Distribution Counterfactuals [72.00815192668193]
特徴重要度(FI)推定は一般的な説明形式であり、テスト時に特定の入力特徴を除去することによって生じるモデル信頼度の変化を計算し、評価することが一般的である。
FIに基づく説明の未探索次元についていくつかの考察を行い、この説明形式に対する概念的および実証的な改善を提供する。
論文 参考訳(メタデータ) (2021-06-01T20:36:48Z) - Probabilistic Sufficient Explanations [31.08715352013011]
確率論的に十分な説明を導入し、分類の例を特徴の「最も単純な」部分集合を選ぶものとして記述する。
保証をそのまま保ちつつ、所望の説明を見つけるためのスケーラブルなアルゴリズムを設計する。
本実験は, 十分な説明を求める上でのアルゴリズムの有効性を実証し, アンカーや論理的説明と比較して, その優位性を示すものである。
論文 参考訳(メタデータ) (2021-05-21T04:03:10Z) - Reliable Post hoc Explanations: Modeling Uncertainty in Explainability [44.9824285459365]
ブラックボックスの説明は、高レベルの設定でモデルの信頼性を確立するために、ますます採用されている。
先行研究では、最先端の技術が生み出す説明は一貫性がなく不安定であり、その正確性や信頼性についての洞察はほとんど得られないことが示されている。
局所的な説明と関連する不確実性を生成するための新しいベイズ的枠組みを開発する。
論文 参考訳(メタデータ) (2020-08-11T22:52:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。