論文の概要: Promoting Counterfactual Robustness through Diversity
- arxiv url: http://arxiv.org/abs/2312.06564v2
- Date: Tue, 12 Dec 2023 08:09:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-13 12:32:59.171351
- Title: Promoting Counterfactual Robustness through Diversity
- Title(参考訳): 多様性による対物ロバスト性の促進
- Authors: Francesco Leofante and Nico Potyka
- Abstract要約: 対物的説明者は、入力の小さな変更が説明に大きな変更をもたらすという意味で、堅牢性に欠ける可能性がある。
本稿では,多様性基準を用いた近似アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 10.223545393731115
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Counterfactual explanations shed light on the decisions of black-box models
by explaining how an input can be altered to obtain a favourable decision from
the model (e.g., when a loan application has been rejected). However, as noted
recently, counterfactual explainers may lack robustness in the sense that a
minor change in the input can cause a major change in the explanation. This can
cause confusion on the user side and open the door for adversarial attacks. In
this paper, we study some sources of non-robustness. While there are
fundamental reasons for why an explainer that returns a single counterfactual
cannot be robust in all instances, we show that some interesting robustness
guarantees can be given by reporting multiple rather than a single
counterfactual. Unfortunately, the number of counterfactuals that need to be
reported for the theoretical guarantees to hold can be prohibitively large. We
therefore propose an approximation algorithm that uses a diversity criterion to
select a feasible number of most relevant explanations and study its robustness
empirically. Our experiments indicate that our method improves the
state-of-the-art in generating robust explanations, while maintaining other
desirable properties and providing competitive computational performance.
- Abstract(参考訳): ブラックボックスモデルの決定は、入力をどのように変更してモデルから好意的な決定(例えば、ローン申請が拒否された場合)を得るかを説明することで明らかにされる。
しかし、最近述べたように、インプットの微妙な変更が説明に大きな変化をもたらすという意味で、反事実的説明には堅牢性がない可能性がある。
これはユーザ側で混乱を引き起こし、敵の攻撃のドアを開く可能性がある。
本稿では,非ロバスト性の原因について検討する。
単一の反ファクトを返却する説明者がすべてのインスタンスで堅牢でないことには根本的な理由があるが、ある興味深い堅牢性保証は、単一の反ファクトを複数報告することで得られることを示す。
残念なことに、保持する理論的な保証のために報告されるべき反事実の数は、禁止的に大きい。
そこで本研究では,多様性基準を用いて,最も関係の深い説明の可能な数を選択し,その堅牢性を実証的に研究する近似アルゴリズムを提案する。
実験の結果,本手法はロバストな説明を生成できるが,他の望ましい特性を保ちながら計算性能を競うことができることがわかった。
関連論文リスト
- Longitudinal Counterfactuals: Constraints and Opportunities [59.11233767208572]
本稿では,反ファクトの妥当性を評価・改善するために,縦断データを用いた手法を提案する。
本研究では, 縦差と反実差を比較する指標を開発し, 先行観測した変化と反実差の類似性を評価する。
論文 参考訳(メタデータ) (2024-02-29T20:17:08Z) - From Robustness to Explainability and Back Again [0.685316573653194]
本稿では,形式的説明可能性のスケーラビリティの限界に対処し,形式的説明性を計算するための新しいアルゴリズムを提案する。
提案アルゴリズムは、その代わりに多数のロバストネスクエリに応答して説明を計算し、そのようなクエリの数は、機能数に対して最も線形である。
提案手法の有効性を検証する実験を行った。
論文 参考訳(メタデータ) (2023-06-05T17:21:05Z) - Generating robust counterfactual explanations [60.32214822437734]
カウンターファクトの質は、現実主義、行動可能性、妥当性、堅牢性など、いくつかの基準に依存する。
本稿では, 対実的入力変化に対するロバスト性に着目し, 対実的入力変化に対するロバスト性に着目した。
我々は,このトレードオフを効果的に管理し,ユーザに対して最小限の堅牢性を保証するとともに,ロバストなデファクトを生成する新しいフレームワークであるCROCOを提案する。
論文 参考訳(メタデータ) (2023-04-24T09:00:31Z) - Feature-based Learning for Diverse and Privacy-Preserving Counterfactual
Explanations [46.89706747651661]
解釈可能な機械学習は複雑なブラックボックスシステムの推論過程を理解しようとする。
優れたアプローチの1つは、ユーザが結果を変更するために何ができるかを示唆する、反ファクト的な説明を通じてである。
論文 参考訳(メタデータ) (2022-09-27T15:09:13Z) - Robust Counterfactual Explanations for Random Forests [76.84947521482631]
本研究では,アンサンブルモデルのロバスト性とベース学習者のロバスト性との関係について検討する。
既存の手法が驚くほど低いロバスト性を与えることを示す: 単純な反事実の妥当性は、ほとんどのデータセットで50%以下である。
本手法は, 反実的説明から初期観測までの距離をわずかに増加させるだけで, 高いロバスト性を実現する。
論文 参考訳(メタデータ) (2022-05-27T17:28:54Z) - Logical Satisfiability of Counterfactuals for Faithful Explanations in
NLI [60.142926537264714]
本稿では, 忠実度スルー・カウンタファクトの方法論について紹介する。
これは、説明に表される論理述語に基づいて、反実仮説を生成する。
そして、そのモデルが表現された論理と反ファクトの予測が一致しているかどうかを評価する。
論文 参考訳(メタデータ) (2022-05-25T03:40:59Z) - Variational Causal Networks: Approximate Bayesian Inference over Causal
Structures [132.74509389517203]
離散DAG空間上の自己回帰分布をモデル化したパラメトリック変分族を導入する。
実験では,提案した変分後部が真の後部を良好に近似できることを示した。
論文 参考訳(メタデータ) (2021-06-14T17:52:49Z) - Reliable Post hoc Explanations: Modeling Uncertainty in Explainability [44.9824285459365]
ブラックボックスの説明は、高レベルの設定でモデルの信頼性を確立するために、ますます採用されている。
先行研究では、最先端の技術が生み出す説明は一貫性がなく不安定であり、その正確性や信頼性についての洞察はほとんど得られないことが示されている。
局所的な説明と関連する不確実性を生成するための新しいベイズ的枠組みを開発する。
論文 参考訳(メタデータ) (2020-08-11T22:52:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。