論文の概要: Verified Training for Counterfactual Explanation Robustness under Data
Shift
- arxiv url: http://arxiv.org/abs/2403.03773v1
- Date: Wed, 6 Mar 2024 15:06:16 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-07 14:47:56.450785
- Title: Verified Training for Counterfactual Explanation Robustness under Data
Shift
- Title(参考訳): データシフトによる非現実的説明ロバスト性の検証訓練
- Authors: Anna P. Meyer and Yuhao Zhang and Aws Albarghouthi and Loris D'Antoni
- Abstract要約: 対実的説明(CE)は、予測を望ましいクラスに変更するために入力にどのような変更が必要なのかを記述することによって、機械学習モデルの解釈可能性を高める。
既存のアプローチは、単一の固定されたモデルに焦点を当ててCEを生成し、CEの将来的な妥当性に関する正式な保証は提供しない。
本稿では,分類器と説明器を協調的に訓練し,生成したCEのロバスト性をモデルシフトに明示的に考慮するアプローチであるVeriTraCERを紹介する。
- 参考スコア(独自算出の注目度): 18.156341188646348
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Counterfactual explanations (CEs) enhance the interpretability of machine
learning models by describing what changes to an input are necessary to change
its prediction to a desired class. These explanations are commonly used to
guide users' actions, e.g., by describing how a user whose loan application was
denied can be approved for a loan in the future. Existing approaches generate
CEs by focusing on a single, fixed model, and do not provide any formal
guarantees on the CEs' future validity. When models are updated periodically to
account for data shift, if the generated CEs are not robust to the shifts,
users' actions may no longer have the desired impacts on their predictions.
This paper introduces VeriTraCER, an approach that jointly trains a classifier
and an explainer to explicitly consider the robustness of the generated CEs to
small model shifts. VeriTraCER optimizes over a carefully designed loss
function that ensures the verifiable robustness of CEs to local model updates,
thus providing deterministic guarantees to CE validity. Our empirical
evaluation demonstrates that VeriTraCER generates CEs that (1) are verifiably
robust to small model updates and (2) display competitive robustness to
state-of-the-art approaches in handling empirical model updates including
random initialization, leave-one-out, and distribution shifts.
- Abstract(参考訳): 対実的説明(CE)は、予測を望ましいクラスに変更するために入力にどのような変更が必要なのかを記述することによって、機械学習モデルの解釈可能性を高める。
これらの説明は一般的に、例えば、ローン申請が拒否されたユーザが将来どのようにローンを承認できるかを記述することによって、ユーザーのアクションを導くために使用される。
既存のアプローチは、単一の固定モデルに焦点を当ててCEを生成し、CEの将来的な妥当性に関する正式な保証は提供しない。
データシフトを考慮して定期的にモデルが更新される場合、生成されたCEがシフトに対して堅牢でない場合、ユーザのアクションが予測に望ましい影響を与えない可能性がある。
本稿では,分類器と説明器を協調的に訓練し,生成したCEのロバスト性をモデルシフトに明示的に考慮するVeriTraCERを提案する。
VeriTraCERは、CEのローカルモデル更新に対する確実な堅牢性を保証するために、慎重に設計された損失関数を最適化する。
我々の経験的評価は,(1)小さなモデル更新に対して確実な堅牢性を示し,(2) ランダム初期化やアウト・ワン・アウト,分散シフトといった経験的モデル更新を扱う上での最先端アプローチに対する競争力を示す。
関連論文リスト
- Refining Counterfactual Explanations With Joint-Distribution-Informed Shapley Towards Actionable Minimality [6.770853093478073]
対実的説明(CE)は、観測データによく似ているが、異なる機械学習(ML)モデル出力を生成するデータポイントを特定する。
既存のCEメソッドは、説明に含まれる不要な特徴の変化のため、実行可能効率が欠如していることが多い。
本稿では,CEの有効性を維持しつつ,必要な特徴変化を最小限に抑える手法を提案する。
論文 参考訳(メタデータ) (2024-10-07T18:31:19Z) - Counterfactual Explanations with Probabilistic Guarantees on their Robustness to Model Change [4.239829789304117]
対実的説明(CFE)は、望ましいアウトプットを達成するために、機械学習モデルへの入力の調整方法をユーザに案内する。
この問題に対処する現在のメソッドは、しばしば特定のモデルや変更タイプのみをサポートする。
本稿では,任意のモデルや変更タイプに対して確率的保証を提供するCFEの生成手法を提案する。
論文 参考訳(メタデータ) (2024-08-09T03:35:53Z) - Interval Abstractions for Robust Counterfactual Explanations [15.954944873701503]
対実的説明(CE)は、説明可能なAI研究における主要なパラダイムとして現れている。
既存のメソッドは、生成したモデルのパラメータにわずかな変更が発生すると、しばしば無効になる。
本稿では,機械学習モデルのための新しいインターバル抽象化手法を提案する。
論文 参考訳(メタデータ) (2024-04-21T18:24:34Z) - Do Counterfactual Examples Complicate Adversarial Training? [6.264110093518783]
我々は拡散モデルを利用して、ロバスト分類器の堅牢性と性能のトレードオフを研究する。
提案手法は,低ノルム対実例(CE)を生成する。
クリーントレーニングデータに対するロバストモデルの信頼性と精度は、CEにデータが近接していることと関連していると報告する。
論文 参考訳(メタデータ) (2024-04-16T14:13:44Z) - Introducing User Feedback-based Counterfactual Explanations (UFCE) [49.1574468325115]
対実的説明(CE)は、XAIで理解可能な説明を生成するための有効な解決策として浮上している。
UFCEは、アクション可能な機能のサブセットで最小限の変更を決定するために、ユーザー制約を含めることができる。
UFCEは、textitproximity(英語版)、textitsparsity(英語版)、textitfeasibility(英語版)の2つのよく知られたCEメソッドより優れている。
論文 参考訳(メタデータ) (2024-02-26T20:09:44Z) - Estimating calibration error under label shift without labels [47.57286245320775]
既存のCE推定器は、ターゲットドメインからのラベルへのアクセスを前提としており、実際には利用できないことが多い。
本研究は、ラベルシフト中の新しいCE推定器を提案し、ソースとターゲットの分布間の条件付き$p(X|Y)$定数を維持しながら、境界ラベル分布の$p(Y)$の変化を特徴とする。
我々の貢献は、ラベル付きソース分布の重要度再重み付けを活用することによって、シフトしたターゲット分布に対する一貫性と偏りのないCE推定を提供するアプローチである。
論文 参考訳(メタデータ) (2023-12-14T01:18:51Z) - Provably Robust and Plausible Counterfactual Explanations for Neural Networks via Robust Optimisation [19.065904250532995]
PROPLACE(Provably RObust and PLAUSible Counterfactual Explanations)を提案する。
証明可能な堅牢なCEを計算し、その収束性、健全性、完全性を証明するための反復アルゴリズムを定式化する。
ProPLACEは,3つの評価点において,計測値に対する最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-09-22T00:12:09Z) - Cal-SFDA: Source-Free Domain-adaptive Semantic Segmentation with
Differentiable Expected Calibration Error [50.86671887712424]
ドメイン適応型セマンティックセグメンテーションの流行は、ソースドメインデータの漏洩に関する懸念を引き起こしている。
ソースデータの要求を回避するため、ソースフリーなドメイン適応が実現可能なソリューションとして登場した。
校正誘導型ソースフリーなドメイン適応型セマンティックセマンティックセマンティクスフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-06T03:28:34Z) - Confidence Attention and Generalization Enhanced Distillation for
Continuous Video Domain Adaptation [62.458968086881555]
連続ビデオドメイン適応(CVDA、Continuous Video Domain Adaptation)は、ソースモデルが個々の変更対象ドメインに適応する必要があるシナリオである。
CVDAの課題に対処するため,遺伝子組み換え型自己知識解離(CART)を用いた信頼性保証ネットワークを提案する。
論文 参考訳(メタデータ) (2023-03-18T16:40:10Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。