論文の概要: Interval Abstractions for Robust Counterfactual Explanations
- arxiv url: http://arxiv.org/abs/2404.13736v2
- Date: Fri, 22 Nov 2024 15:01:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-25 15:01:52.235066
- Title: Interval Abstractions for Robust Counterfactual Explanations
- Title(参考訳): ロバストな対実的説明のための時間的抽象化
- Authors: Junqi Jiang, Francesco Leofante, Antonio Rago, Francesca Toni,
- Abstract要約: 対実的説明(CE)は、説明可能なAI研究における主要なパラダイムとして現れている。
既存のメソッドは、生成したモデルのパラメータにわずかな変更が発生すると、しばしば無効になる。
本稿では,機械学習モデルのための新しいインターバル抽象化手法を提案する。
- 参考スコア(独自算出の注目度): 15.954944873701503
- License:
- Abstract: Counterfactual Explanations (CEs) have emerged as a major paradigm in explainable AI research, providing recourse recommendations for users affected by the decisions of machine learning models. However, CEs found by existing methods often become invalid when slight changes occur in the parameters of the model they were generated for. The literature lacks a way to provide exhaustive robustness guarantees for CEs under model changes, in that existing methods to improve CEs' robustness are mostly heuristic, and the robustness performances are evaluated empirically using only a limited number of retrained models. To bridge this gap, we propose a novel interval abstraction technique for parametric machine learning models, which allows us to obtain provable robustness guarantees for CEs under a possibly infinite set of plausible model changes $\Delta$. Based on this idea, we formalise a robustness notion for CEs, which we call $\Delta$-robustness, in both binary and multi-class classification settings. We present procedures to verify $\Delta$-robustness based on Mixed Integer Linear Programming, using which we further propose algorithms to generate CEs that are $\Delta$-robust. In an extensive empirical study involving neural networks and logistic regression models, we demonstrate the practical applicability of our approach. We discuss two strategies for determining the appropriate hyperparameters in our method, and we quantitatively benchmark CEs generated by eleven methods, highlighting the effectiveness of our algorithms in finding robust CEs.
- Abstract(参考訳): 対実的説明(CE)は、説明可能なAI研究の主要なパラダイムとして現れ、機械学習モデルの決定によって影響を受けるユーザのリコメンデーションを提供する。
しかし、既存のメソッドで見つかったCEは、生成したモデルのパラメータにわずかな変更が生じると無効になることが多い。
文献は、CEの堅牢性を改善する既存の方法が概ねヒューリスティックであり、そのロバスト性性能は、限られた数のリトレーニングされたモデルだけで実証的に評価されるという点において、モデル変更の下でCEに徹底的なロバスト性を保証する手段を欠いている。
このギャップを埋めるために、パラメトリック機械学習モデルのための新しいインターバル抽象化手法を提案する。
この考えに基づいて、我々はCEのロバストネスの概念を定式化し、これを$\Delta$-robustnessと呼び、バイナリとマルチクラスの両方の分類設定で定式化する。
我々は,Mixed Integer Linear Programmingに基づく$\Delta$-robustnessを検証する手順を提案し,さらに$\Delta$-robustのCEを生成するアルゴリズムを提案する。
ニューラルネットワークとロジスティック回帰モデルを含む広範な実証研究において,本手法の実用性を示す。
本稿では,提案手法の最適パラメータを決定するための2つの戦略について論じるとともに,11の手法で生成されたCEを定量的にベンチマークし,ロバストCEの探索におけるアルゴリズムの有効性を明らかにする。
関連論文リスト
- Rigorous Probabilistic Guarantees for Robust Counterfactual Explanations [80.86128012438834]
モデルシフトに対する反ファクトの堅牢性を計算することはNP完全であることを示す。
本稿では,頑健性の厳密な推定を高い保証で実現する新しい確率論的手法を提案する。
論文 参考訳(メタデータ) (2024-07-10T09:13:11Z) - DistiLLM: Towards Streamlined Distillation for Large Language Models [53.46759297929675]
DistiLLMは自動回帰言語モデルのためのより効率的で効率的なKDフレームワークである。
DisiLLMは,(1)新しいスキューKulback-Leibler分散損失,(2)学生生成出力の効率向上を目的とした適応型オフ政治アプローチの2つのコンポーネントから構成される。
論文 参考訳(メタデータ) (2024-02-06T11:10:35Z) - Provably Robust and Plausible Counterfactual Explanations for Neural Networks via Robust Optimisation [19.065904250532995]
PROPLACE(Provably RObust and PLAUSible Counterfactual Explanations)を提案する。
証明可能な堅牢なCEを計算し、その収束性、健全性、完全性を証明するための反復アルゴリズムを定式化する。
ProPLACEは,3つの評価点において,計測値に対する最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-09-22T00:12:09Z) - Counterfactual Explanation via Search in Gaussian Mixture Distributed
Latent Space [19.312306559210125]
対実説明(CE)は2つの問題に対処するアルゴリズム・リコースにおいて重要なツールである。
簡単に理解しやすい説明を提供することによって、AIシステムに対するユーザのインタラクションを導くことは、AIシステムの信頼できる採用と長期的な受け入れに不可欠である。
本稿では,まずオートエンコーダの潜伏空間をガウス分布の混合として形成することにより,事前学習されたバイナリ分類器のCEを生成する手法を提案する。
論文 参考訳(メタデータ) (2023-07-25T10:21:26Z) - Finding Regions of Counterfactual Explanations via Robust Optimization [0.0]
反事実的説明 (CE) は、モデルの決定が変化する最小の摂動データポイントである。
既存のメソッドのほとんどは1つのCEしか提供できないが、ユーザにとっては達成できないかもしれない。
特徴がわずかに乱れた後も有効であるロバストCEを計算するための反復的手法を導出する。
論文 参考訳(メタデータ) (2023-01-26T14:06:26Z) - Formalising the Robustness of Counterfactual Explanations for Neural
Networks [16.39168719476438]
本稿では,CFXのロバスト性を検証するために,インターバルニューラルネットワークに基づく抽象化フレームワークを提案する。
既存のメソッドにDelta-robustnessを組み込むことで、確実に堅牢なCFXを提供できることを示す。
論文 参考訳(メタデータ) (2022-08-31T14:11:23Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - Weakly Supervised Semantic Segmentation via Alternative Self-Dual
Teaching [82.71578668091914]
本稿では,分類とマスク・リファインメント・コンポーネントを統合された深層モデルに組み込む,コンパクトな学習フレームワークを確立する。
本稿では,高品質な知識相互作用を促進するために,新たな自己双対学習(ASDT)機構を提案する。
論文 参考訳(メタデータ) (2021-12-17T11:56:56Z) - A generalized framework for active learning reliability: survey and
benchmark [0.0]
本研究では,効果的な能動学習戦略を構築するためのモジュラーフレームワークを提案する。
信頼性ベンチマーク問題20の解決策として39の戦略を考案した。
論文 参考訳(メタデータ) (2021-06-03T09:33:59Z) - Automated and Formal Synthesis of Neural Barrier Certificates for
Dynamical Models [70.70479436076238]
バリア証明書(BC)の自動的,形式的,反例に基づく合成手法を提案する。
このアプローチは、ニューラルネットワークとして構造化されたBCの候補を操作する誘導的フレームワークと、その候補の有効性を認証するか、反例を生成する音検証器によって支えられている。
その結果,音のBCsを最大2桁の速度で合成できることがわかった。
論文 参考訳(メタデータ) (2020-07-07T07:39:42Z) - An Online Method for A Class of Distributionally Robust Optimization
with Non-Convex Objectives [54.29001037565384]
本稿では,オンライン分散ロバスト最適化(DRO)のクラスを解決するための実用的なオンライン手法を提案する。
本研究は,ネットワークの堅牢性向上のための機械学習における重要な応用を実証する。
論文 参考訳(メタデータ) (2020-06-17T20:19:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。