論文の概要: Informative Perturbation Selection for Uncertainty-Aware Post-hoc Explanations
- arxiv url: http://arxiv.org/abs/2603.14894v1
- Date: Mon, 16 Mar 2026 06:48:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:36.114421
- Title: Informative Perturbation Selection for Uncertainty-Aware Post-hoc Explanations
- Title(参考訳): 不確実性を考慮したポストホック説明のためのインフォームな摂動選択法
- Authors: Sumedha Chugh, Ranjitha Prasad, Nazreen Shah,
- Abstract要約: 信頼と倫理的な懸念は、不透明な機械学習(ML)モデルが広く展開することによるものであり、信頼性のあるモデル説明の必要性を動機付けている。
ポストホックモデルに依存しない説明法は、興味のあるサンプルの局所性においてデプロイされたブラックボックスMLモデルの振る舞いを近似する代理モデルを学ぶことでこの問題に対処する。
本稿では,情報理論の積極的学習問題として摂動選択を定式化する,ポストホックモデルに依存しない説明フレームワークであるemphExpected Active Gain for Local Explanations (textttEAGLE)を提案する。
- 参考スコア(独自算出の注目度): 7.226144684379189
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Trust and ethical concerns due to the widespread deployment of opaque machine learning (ML) models motivating the need for reliable model explanations. Post-hoc model-agnostic explanation methods addresses this challenge by learning a surrogate model that approximates the behavior of the deployed black-box ML model in the locality of a sample of interest. In post-hoc scenarios, neither the underlying model parameters nor the training are available, and hence, this local neighborhood must be constructed by generating perturbed inputs in the neighborhood of the sample of interest, and its corresponding model predictions. We propose \emph{Expected Active Gain for Local Explanations} (\texttt{EAGLE}), a post-hoc model-agnostic explanation framework that formulates perturbation selection as an information-theoretic active learning problem. By adaptively sampling perturbations that maximize the expected information gain, \texttt{EAGLE} efficiently learns a linear surrogate explainable model while producing feature importance scores along with the uncertainty/confidence estimates. Theoretically, we establish that cumulative information gain scales as $\mathcal{O}(d \log t)$, where $d$ is the feature dimension and $t$ represents the number of samples, and that the sample complexity grows linearly with $d$ and logarithmically with the confidence parameter $1/δ$. Empirical results on tabular and image datasets corroborate our theoretical findings and demonstrate that \texttt{EAGLE} improves explanation reproducibility across runs, achieves higher neighborhood stability, and improves perturbation sample quality as compared to state-of-the-art baselines such as Tilia, US-LIME, GLIME and BayesLIME.
- Abstract(参考訳): 信頼と倫理的な懸念は、不透明な機械学習(ML)モデルが広く展開することによるものであり、信頼性のあるモデル説明の必要性を動機付けている。
ポストホックモデルに依存しない説明法は、興味のあるサンプルの局所性においてデプロイされたブラックボックスMLモデルの振る舞いを近似する代理モデルを学ぶことでこの問題に対処する。
ポストホックのシナリオでは、基礎となるモデルパラメータやトレーニングは利用できないため、この局所地区は興味のあるサンプルの近傍で摂動入力を生成し、それに対応するモデル予測を生成する必要がある。
本稿では,摂動選択を情報理論的能動学習問題として定式化する,ポストホックモデルに依存しない説明フレームワークである,局所説明のためのemph{Expected Active Gain} (\texttt{EAGLE})を提案する。
期待される情報ゲインを最大化する摂動を適応的にサンプリングすることにより,不確実性/自信の推定値とともに特徴量スコアを生成しながら,線形サロゲート説明可能なモデルを効率的に学習する。
理論的には、累積情報ゲインは$\mathcal{O}(d \log t)$で、$d$は特徴次元であり、$t$はサンプルの数を表し、サンプルの複雑さは$d$で線形に増加し、信頼性パラメータが$/δ$で対数的に増加する。
表層および画像データセットの実証結果は,我々の理論的知見と相関し,<texttt{EAGLE} が実行中の説明再現性を向上し,近隣の安定性を向上し,Tilia,US-LIME,GLIME,BayesLIME といった最先端のベースラインと比較して摂動サンプルの品質を向上させることを示した。
関連論文リスト
- Model-free Methods for Event History Analysis and Efficient Adjustment (PhD Thesis) [55.2480439325792]
この論文は、モデルフリーの観点から統一された統計学への独立した貢献のシリーズである。
第1章では、機械学習から予測技術を活用する柔軟なメソッドを定式化するために、モデルフリーの視点をどのように利用できるか、詳しく説明している。
第2章では、あるプロセスの進化が他のプロセスに直接影響されるかどうかを記述した地域独立の概念を研究している。
論文 参考訳(メタデータ) (2025-02-11T19:24:09Z) - Informed Correctors for Discrete Diffusion Models [27.295990499157814]
離散拡散モデルに対する予測・相関型サンプリング手法を提案する。
情報補正器は,誤差が少なく,FIDスコアが向上した優れたサンプルを連続的に生成することを示す。
本結果は,離散拡散を用いた高速かつ高忠実な生成のための情報補正器の可能性を明らかにするものである。
論文 参考訳(メタデータ) (2024-07-30T23:29:29Z) - Rejection via Learning Density Ratios [50.91522897152437]
拒絶による分類は、モデルを予測しないことを許容する学習パラダイムとして現れます。
そこで我々は,事前学習したモデルの性能を最大化する理想的なデータ分布を求める。
私たちのフレームワークは、クリーンでノイズの多いデータセットで実証的にテストされます。
論文 参考訳(メタデータ) (2024-05-29T01:32:17Z) - LaPLACE: Probabilistic Local Model-Agnostic Causal Explanations [1.0370398945228227]
本稿では,機械学習モデルに対する確率論的原因・効果説明を提供するLaPLACE-Explainerを紹介する。
LaPLACE-Explainerコンポーネントはマルコフ毛布の概念を利用して、関連する特徴と非関連する特徴の間の統計的境界を確立する。
提案手法は,LIME と SHAP の局所的精度と特徴の整合性の観点から,因果的説明と性能を向上する。
論文 参考訳(メタデータ) (2023-10-01T04:09:59Z) - Uncertainty Quantification for Local Model Explanations Without Model
Access [0.44241702149260353]
本稿では,機械学習モデルに対するポストホックな説明を生成するためのモデルに依存しないアルゴリズムを提案する。
本アルゴリズムは,モデルクエリの有限サンプルから説明を生成する際に必然的に発生する不確実性を定量化するためにブートストラップ方式を用いる。
論文 参考訳(メタデータ) (2023-01-13T21:18:00Z) - Inverting brain grey matter models with likelihood-free inference: a
tool for trustable cytoarchitecture measurements [62.997667081978825]
脳の灰白質細胞構造の特徴は、体密度と体積に定量的に敏感であり、dMRIでは未解決の課題である。
我々は新しいフォワードモデル、特に新しい方程式系を提案し、比較的スパースなb殻を必要とする。
次に,提案手法を逆転させるため,確率自由推論 (LFI) として知られるベイズ解析から最新のツールを適用した。
論文 参考訳(メタデータ) (2021-11-15T09:08:27Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Generative Temporal Difference Learning for Infinite-Horizon Prediction [101.59882753763888]
我々は、無限確率的地平線を持つ環境力学の予測モデルである$gamma$-modelを導入する。
トレーニングタイムとテストタイムの複合的なエラーの間には、そのトレーニングが避けられないトレードオフを反映しているかについて議論する。
論文 参考訳(メタデータ) (2020-10-27T17:54:12Z) - Goal-directed Generation of Discrete Structures with Conditional
Generative Models [85.51463588099556]
本稿では,強化学習目標を直接最適化し,期待される報酬を最大化するための新しいアプローチを提案する。
提案手法は、ユーザ定義プロパティを持つ分子の生成と、所定の目標値を評価する短いピソン表現の同定という2つのタスクで検証する。
論文 参考訳(メタデータ) (2020-10-05T20:03:13Z) - A Modified Perturbed Sampling Method for Local Interpretable
Model-agnostic Explanation [35.281127405430674]
LIME(Local Interpretable Model-Agnostic Explanation)は、任意の分類器の予測を忠実に説明する手法である。
本稿では,LIME (MPS-LIME) のための改良型摂動サンプリング操作を提案する。
画像分類において、MPS-LIMEはスーパーピクセル画像を非方向グラフに変換する。
論文 参考訳(メタデータ) (2020-02-18T09:03:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。