論文の概要: Formalising the Robustness of Counterfactual Explanations for Neural
Networks
- arxiv url: http://arxiv.org/abs/2208.14878v1
- Date: Wed, 31 Aug 2022 14:11:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-01 13:02:28.117004
- Title: Formalising the Robustness of Counterfactual Explanations for Neural
Networks
- Title(参考訳): ニューラルネットワークのための反事実説明のロバスト性に関する形式化
- Authors: Junqi Jiang, Francesco Leofante, Antonio Rago, Francesca Toni
- Abstract要約: 本稿では,CFXのロバスト性を検証するために,インターバルニューラルネットワークに基づく抽象化フレームワークを提案する。
既存のメソッドにDelta-robustnessを組み込むことで、確実に堅牢なCFXを提供できることを示す。
- 参考スコア(独自算出の注目度): 16.39168719476438
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The use of counterfactual explanations (CFXs) is an increasingly popular
explanation strategy for machine learning models. However, recent studies have
shown that these explanations may not be robust to changes in the underlying
model (e.g., following retraining), which raises questions about their
reliability in real-world applications. Existing attempts towards solving this
problem are heuristic, and the robustness to model changes of the resulting
CFXs is evaluated with only a small number of retrained models, failing to
provide exhaustive guarantees. To remedy this, we propose the first notion to
formally and deterministically assess the robustness (to model changes) of CFXs
for neural networks, that we call {\Delta}-robustness. We introduce an
abstraction framework based on interval neural networks to verify the
{\Delta}-robustness of CFXs against a possibly infinite set of changes to the
model parameters, i.e., weights and biases. We then demonstrate the utility of
this approach in two distinct ways. First, we analyse the {\Delta}-robustness
of a number of CFX generation methods from the literature and show that they
unanimously host significant deficiencies in this regard. Second, we
demonstrate how embedding {\Delta}-robustness within existing methods can
provide CFXs which are provably robust.
- Abstract(参考訳): 対物的説明(CFXs)の使用は、機械学習モデルの一般的な説明戦略である。
しかし、近年の研究では、これらの説明は、実際のアプリケーションにおける信頼性に関する疑問を提起する基礎となるモデル(再トレーニング後の変更など)の変化に対して堅牢ではない可能性があることが示されている。
この問題を解決する既存の試みはヒューリスティックであり、cfxのモデル変更に対する堅牢性は少数の再訓練されたモデルで評価され、徹底的な保証を提供していない。
そこで本研究では,ニューラルネットワークのためのcfxのロバスト性(モデル変更)を形式的かつ決定論的に評価する最初の概念を提案する。
本稿では,時間間隔ニューラルネットワークに基づく抽象化フレームワークを導入し,モデルパラメータ,すなわち重みと偏りの無限セットに対するCFXの破壊性を検証する。
次に、このアプローチの有用性を2つの異なる方法で示す。
まず、文献から多くのCFX生成手法の「Delta}-robustness」を分析し、この点において重要な欠陥を全会一致で担っていることを示す。
第2に、既存のメソッドに {\Delta}-robustnessを組み込むことで、確実に堅牢なCFXを実現できることを示す。
関連論文リスト
- Derivative-Free Diffusion Manifold-Constrained Gradient for Unified XAI [59.96044730204345]
微分自由拡散多様体制約勾配(FreeMCG)を導入する。
FreeMCGは、与えられたニューラルネットワークの説明可能性を改善する基盤として機能する。
提案手法は,XAIツールが期待する本質性を保ちながら,最先端の成果が得られることを示す。
論文 参考訳(メタデータ) (2024-11-22T11:15:14Z) - Adversarial Robustification via Text-to-Image Diffusion Models [56.37291240867549]
アドリラルロバスト性は、ニューラルネットワークをエンコードする難しい性質として伝統的に信じられてきた。
データを使わずに敵の堅牢性を実現するために,スケーラブルでモデルに依存しないソリューションを開発した。
論文 参考訳(メタデータ) (2024-07-26T10:49:14Z) - SINDER: Repairing the Singular Defects of DINOv2 [61.98878352956125]
大規模なデータセットでトレーニングされたビジョントランスフォーマーモデルは、抽出したパッチトークンにアーティファクトを表示することが多い。
本稿では,小さなデータセットのみを用いて構造欠陥を補正するスムーズなスムーズな正規化を提案する。
論文 参考訳(メタデータ) (2024-07-23T20:34:23Z) - Rigorous Probabilistic Guarantees for Robust Counterfactual Explanations [80.86128012438834]
モデルシフトに対する反ファクトの堅牢性を計算することはNP完全であることを示す。
本稿では,頑健性の厳密な推定を高い保証で実現する新しい確率論的手法を提案する。
論文 参考訳(メタデータ) (2024-07-10T09:13:11Z) - FullCert: Deterministic End-to-End Certification for Training and Inference of Neural Networks [62.897993591443594]
FullCertは、音と決定論的境界を持つ最初のエンドツーエンドの認証器である。
2つのデータセットに対してFullCertの有効性を実験的に示す。
論文 参考訳(メタデータ) (2024-06-17T13:23:52Z) - Interval Abstractions for Robust Counterfactual Explanations [15.954944873701503]
対実的説明(CE)は、説明可能なAI研究における主要なパラダイムとして現れている。
既存のメソッドは、生成したモデルのパラメータにわずかな変更が発生すると、しばしば無効になる。
本稿では,機械学習モデルのための新しいインターバル抽象化手法を提案する。
論文 参考訳(メタデータ) (2024-04-21T18:24:34Z) - The Edge-of-Reach Problem in Offline Model-Based Reinforcement Learning [37.387280102209274]
オフライン強化学習は、事前に収集されたデータセットからエージェントをトレーニング可能にすることを目的としている。
モデルベースの手法は、エージェントが学習されたダイナミックスモデルでロールアウトを介して追加の合成データを収集できるようにすることで、ソリューションを提供する。
しかし、学習したダイナミックスモデルを真のエラーフリーなダイナミックスに置き換えると、既存のモデルベースのメソッドは完全に失敗する。
本稿では, エッジ・オブ・リーチ問題に直接対処する単純で堅牢な手法であるReach-Aware Value Learning (RAVL)を提案する。
論文 参考訳(メタデータ) (2024-02-19T20:38:00Z) - uSF: Learning Neural Semantic Field with Uncertainty [0.0]
USFと呼ばれる拡張ベクトル表現の生成のための新しいニューラルネットワークモデルを提案する。
トレーニング用画像の少ない場合、不確実性を定量化するモデルは、そのような機能を持たないモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-12-13T09:34:01Z) - Contributions to Large Scale Bayesian Inference and Adversarial Machine
Learning [0.0]
ML手法の急速な採用により、モデルは通常、予測の不確実性を考慮せずに決定を下すために採用されていることが明らかになった。
我々は,予測的説明の不確実性を考慮したMLシステムの開発が現実のタスクにとって必須であると考えている。
論文 参考訳(メタデータ) (2021-09-25T23:02:47Z) - Recurrence-Aware Long-Term Cognitive Network for Explainable Pattern
Classification [0.0]
構造化データの解釈可能なパターン分類のためのLCCNモデルを提案する。
本手法は, 決定過程における各特徴の関連性を定量化し, 説明を提供する独自のメカニズムを提供する。
解釈可能なモデルでは,最先端の白黒ボックスと比較して競争性能が向上する。
論文 参考訳(メタデータ) (2021-07-07T18:14:50Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。