論文の概要: Interval Abstractions for Robust Counterfactual Explanations
- arxiv url: http://arxiv.org/abs/2404.13736v1
- Date: Sun, 21 Apr 2024 18:24:34 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-23 17:42:20.319544
- Title: Interval Abstractions for Robust Counterfactual Explanations
- Title(参考訳): ロバストな対実的説明のための時間的抽象化
- Authors: Junqi Jiang, Francesco Leofante, Antonio Rago, Francesca Toni,
- Abstract要約: パラメトリック機械学習モデルのための新しいインターバル抽象化手法を提案する。
CE の証明可能なロバスト性保証は、可算モデルの無限の集合である$Delta$ で得られる。
- 参考スコア(独自算出の注目度): 15.954944873701503
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Counterfactual Explanations (CEs) have emerged as a major paradigm in explainable AI research, providing recourse recommendations for users affected by the decisions of machine learning models. However, when slight changes occur in the parameters of the underlying model, CEs found by existing methods often become invalid for the updated models. The literature lacks a way to certify deterministic robustness guarantees for CEs under model changes, in that existing methods to improve CEs' robustness are heuristic, and the robustness performances are evaluated empirically using only a limited number of retrained models. To bridge this gap, we propose a novel interval abstraction technique for parametric machine learning models, which allows us to obtain provable robustness guarantees of CEs under the possibly infinite set of plausible model changes $\Delta$. We formalise our robustness notion as the $\Delta$-robustness for CEs, in both binary and multi-class classification settings. We formulate procedures to verify $\Delta$-robustness based on Mixed Integer Linear Programming, using which we further propose two algorithms to generate CEs that are $\Delta$-robust. In an extensive empirical study, we demonstrate how our approach can be used in practice by discussing two strategies for determining the appropriate hyperparameter in our method, and we quantitatively benchmark the CEs generated by eleven methods, highlighting the effectiveness of our algorithms in finding robust CEs.
- Abstract(参考訳): 対実的説明(CE)は、説明可能なAI研究の主要なパラダイムとして現れ、機械学習モデルの決定によって影響を受けるユーザのリコメンデーションを提供する。
しかし、基礎となるモデルのパラメータにわずかな変更が発生すると、既存のメソッドで見つかるCEは更新されたモデルでは無効になることが多い。
文献は、CEのロバスト性を改善する既存の方法がヒューリスティックであり、そのロバスト性性能は、限られた数のリトレーニングされたモデルを用いて経験的に評価されるという点において、モデル変更の下でCEの決定論的ロバスト性を保証する方法が欠如している。
このギャップを埋めるために、パラメトリック機械学習モデルのための新しいインターバル抽象化手法を提案する。
我々は、ロバストネスの概念を、バイナリとマルチクラスの分類設定の両方において、CEの$\Delta$-robustnessとして定式化する。
我々は、Mixed Integer Linear Programmingに基づいて$\Delta$-robustnessを検証する手順を定式化し、さらに$\Delta$-robustであるCEを生成する2つのアルゴリズムを提案する。
本研究では,提案手法の適切なハイパーパラメータを決定するための2つの戦略を議論し,11の手法で生成されたCEを定量的に評価し,ロバストCEの探索におけるアルゴリズムの有効性を強調した。
関連論文リスト
- Rigorous Probabilistic Guarantees for Robust Counterfactual Explanations [80.86128012438834]
モデルシフトに対する反ファクトの堅牢性を計算することはNP完全であることを示す。
本稿では,頑健性の厳密な推定を高い保証で実現する新しい確率論的手法を提案する。
論文 参考訳(メタデータ) (2024-07-10T09:13:11Z) - DistiLLM: Towards Streamlined Distillation for Large Language Models [53.46759297929675]
DistiLLMは自動回帰言語モデルのためのより効率的で効率的なKDフレームワークである。
DisiLLMは,(1)新しいスキューKulback-Leibler分散損失,(2)学生生成出力の効率向上を目的とした適応型オフ政治アプローチの2つのコンポーネントから構成される。
論文 参考訳(メタデータ) (2024-02-06T11:10:35Z) - Provably Robust and Plausible Counterfactual Explanations for Neural Networks via Robust Optimisation [19.065904250532995]
PROPLACE(Provably RObust and PLAUSible Counterfactual Explanations)を提案する。
証明可能な堅牢なCEを計算し、その収束性、健全性、完全性を証明するための反復アルゴリズムを定式化する。
ProPLACEは,3つの評価点において,計測値に対する最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-09-22T00:12:09Z) - Counterfactual Explanation via Search in Gaussian Mixture Distributed
Latent Space [19.312306559210125]
対実説明(CE)は2つの問題に対処するアルゴリズム・リコースにおいて重要なツールである。
簡単に理解しやすい説明を提供することによって、AIシステムに対するユーザのインタラクションを導くことは、AIシステムの信頼できる採用と長期的な受け入れに不可欠である。
本稿では,まずオートエンコーダの潜伏空間をガウス分布の混合として形成することにより,事前学習されたバイナリ分類器のCEを生成する手法を提案する。
論文 参考訳(メタデータ) (2023-07-25T10:21:26Z) - Finding Regions of Counterfactual Explanations via Robust Optimization [0.0]
反事実的説明 (CE) は、モデルの決定が変化する最小の摂動データポイントである。
既存のメソッドのほとんどは1つのCEしか提供できないが、ユーザにとっては達成できないかもしれない。
特徴がわずかに乱れた後も有効であるロバストCEを計算するための反復的手法を導出する。
論文 参考訳(メタデータ) (2023-01-26T14:06:26Z) - Formalising the Robustness of Counterfactual Explanations for Neural
Networks [16.39168719476438]
本稿では,CFXのロバスト性を検証するために,インターバルニューラルネットワークに基づく抽象化フレームワークを提案する。
既存のメソッドにDelta-robustnessを組み込むことで、確実に堅牢なCFXを提供できることを示す。
論文 参考訳(メタデータ) (2022-08-31T14:11:23Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - Weakly Supervised Semantic Segmentation via Alternative Self-Dual
Teaching [82.71578668091914]
本稿では,分類とマスク・リファインメント・コンポーネントを統合された深層モデルに組み込む,コンパクトな学習フレームワークを確立する。
本稿では,高品質な知識相互作用を促進するために,新たな自己双対学習(ASDT)機構を提案する。
論文 参考訳(メタデータ) (2021-12-17T11:56:56Z) - A generalized framework for active learning reliability: survey and
benchmark [0.0]
本研究では,効果的な能動学習戦略を構築するためのモジュラーフレームワークを提案する。
信頼性ベンチマーク問題20の解決策として39の戦略を考案した。
論文 参考訳(メタデータ) (2021-06-03T09:33:59Z) - Automated and Formal Synthesis of Neural Barrier Certificates for
Dynamical Models [70.70479436076238]
バリア証明書(BC)の自動的,形式的,反例に基づく合成手法を提案する。
このアプローチは、ニューラルネットワークとして構造化されたBCの候補を操作する誘導的フレームワークと、その候補の有効性を認証するか、反例を生成する音検証器によって支えられている。
その結果,音のBCsを最大2桁の速度で合成できることがわかった。
論文 参考訳(メタデータ) (2020-07-07T07:39:42Z) - An Online Method for A Class of Distributionally Robust Optimization
with Non-Convex Objectives [54.29001037565384]
本稿では,オンライン分散ロバスト最適化(DRO)のクラスを解決するための実用的なオンライン手法を提案する。
本研究は,ネットワークの堅牢性向上のための機械学習における重要な応用を実証する。
論文 参考訳(メタデータ) (2020-06-17T20:19:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。