論文の概要: Guarantee Regions for Local Explanations
- arxiv url: http://arxiv.org/abs/2402.12737v1
- Date: Tue, 20 Feb 2024 06:04:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-21 17:01:37.902964
- Title: Guarantee Regions for Local Explanations
- Title(参考訳): 地域説明のための地域保証
- Authors: Marton Havasi, Sonali Parbhoo, Finale Doshi-Velez
- Abstract要約: 局所的な説明が正しいと保証される領域を同定するアンカーベースアルゴリズムを提案する。
提案手法は,局所代理モデルの予測が予測モデルと一致するように保証される,解釈可能な特徴整合ボックスを生成する。
- 参考スコア(独自算出の注目度): 29.429229877959663
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Interpretability methods that utilise local surrogate models (e.g. LIME) are
very good at describing the behaviour of the predictive model at a point of
interest, but they are not guaranteed to extrapolate to the local region
surrounding the point. However, overfitting to the local curvature of the
predictive model and malicious tampering can significantly limit extrapolation.
We propose an anchor-based algorithm for identifying regions in which local
explanations are guaranteed to be correct by explicitly describing those
intervals along which the input features can be trusted. Our method produces an
interpretable feature-aligned box where the prediction of the local surrogate
model is guaranteed to match the predictive model. We demonstrate that our
algorithm can be used to find explanations with larger guarantee regions that
better cover the data manifold compared to existing baselines. We also show how
our method can identify misleading local explanations with significantly poorer
guarantee regions.
- Abstract(参考訳): 局所サロゲートモデル(例:lime)を利用する解釈可能性法は、ある時点における予測モデルの振る舞いを記述するのに非常に優れているが、その点を囲む局所領域に外挿することは保証されていない。
しかし、予測モデルの局所的な曲率と悪質な改ざんは外挿を著しく制限することができる。
入力特徴が信頼できる区間を明示的に記述することで、局所的な説明が正しいと保証される領域を特定するアンカーベースアルゴリズムを提案する。
本手法は,局所サロゲートモデルの予測が予測モデルに適合することを保証した,解釈可能な機能アライメントボックスを生成する。
本アルゴリズムは,既存のベースラインと比較してデータ多様体をよりよくカバーする,より大きな保証領域を持つ説明を見つけるために使用できることを示す。
また,提案手法により,保証領域が著しく貧弱な,誤解を招く地域説明を識別できることを示す。
関連論文リスト
- l_inf-approximation of localized distributions [11.211950982996784]
本研究では,近似分布の辺に有界な次元独立誤差を確立する。
近似誤差の次元依存性を回避できるだけでなく,計算コストを大幅に削減する,局所化確率インフォームド部分空間法と局所化スコアマッチングの使い方を示す。
論文 参考訳(メタデータ) (2024-10-15T16:47:05Z) - MASALA: Model-Agnostic Surrogate Explanations by Locality Adaptation [3.587367153279351]
既存のローカル説明可能なAI(XAI)メソッドは、与えられた入力インスタンスの近傍にある入力空間の領域を選択し、より単純で解釈可能な代理モデルを用いてモデルの振る舞いを近似する。
そこで本研究では,各インスタンスごとの衝突モデル行動の適切な局所領域を自動決定する手法であるMASALAを提案する。
論文 参考訳(メタデータ) (2024-08-19T15:26:45Z) - GLIME: General, Stable and Local LIME Explanation [11.002828804775392]
LIME(Local Interpretable Model-Agnostic Explanations)は、モデル行動を理解するために広く用いられる手法である。
GLIMEは、LIMEを拡張し、いくつかの先行メソッドを統合する拡張フレームワークである。
局所的および非バイアスなサンプリング分布を用いることで、GLIMEはLIMEと比較して局所的忠実度の高い説明を生成する。
論文 参考訳(メタデータ) (2023-11-27T11:17:20Z) - Semi-Supervised Crowd Counting with Contextual Modeling: Facilitating Holistic Understanding of Crowd Scenes [19.987151025364067]
本稿では,信頼度の高い群集カウントモデルをトレーニングするための,新しい半教師付き手法を提案する。
モデルの本質的な'サブタイズ'能力を育み、領域の数を正確に見積もることができる。
提案手法は,従来の手法を,挑戦的ベンチマークにおいて大きな差で上回り,最先端の性能を実現する。
論文 参考訳(メタデータ) (2023-10-16T12:42:43Z) - Numerically assisted determination of local models in network scenarios [55.2480439325792]
統計的振る舞いを再現する明示的な局所モデルを見つけるための数値ツールを開発する。
グリーンベルガー・ホルン・ザイリンガー(GHZ)およびW分布の臨界振動性に関する予想を提供する。
開発されたコードとドキュメントは、281.com/mariofilho/localmodelsで公開されている。
論文 参考訳(メタデータ) (2023-03-17T13:24:04Z) - RbX: Region-based explanations of prediction models [69.3939291118954]
領域に基づく説明(RbX)は、ブラックボックス予測モデルからスカラー出力の局所的な説明を生成するモデルに依存しない方法である。
RbXは「スパーシティ公理(sparsity axiom)」を満たすことが保証されており、予測モデルに入らない特徴は重要視されない。
論文 参考訳(メタデータ) (2022-10-17T03:38:06Z) - Change Detection for Local Explainability in Evolving Data Streams [72.4816340552763]
局所的特徴帰属法はポストホックやモデルに依存しない説明法として人気がある。
ローカルな属性が、ストリーミングやオンラインアプリケーションのような、現実的で絶えず変化する設定でどのように振る舞うかは、しばしば不明である。
局所変化と概念ドリフトを検出するフレキシブルでモデルに依存しないCDLEEDSを提案する。
論文 参考訳(メタデータ) (2022-09-06T18:38:34Z) - Sampling Based On Natural Image Statistics Improves Local Surrogate
Explainers [111.31448606885672]
代理説明器は、モデルが予測にどのように到着するかをさらに理解するために、ポストホック解釈法として人気がある。
そこで本研究では,(1)局所領域のサンプリング方法を変更すること,(2)自然画像の分布特性を知覚的指標を用いて伝達すること,の2つの手法を提案する。
論文 参考訳(メタデータ) (2022-08-08T08:10:13Z) - MD-split+: Practical Local Conformal Inference in High Dimensions [0.5439020425819]
MD-split+は、局所化されたモデル性能に基づいてXパーティションを生成する、実用的な局所共形アプローチである。
我々は,我々の局所的分割が条件付き共形推論手法から期待される行動と哲学的にどのように一致しているかを論じる。
論文 参考訳(メタデータ) (2021-07-07T15:19:16Z) - Scalable Marginal Likelihood Estimation for Model Selection in Deep
Learning [78.83598532168256]
階層型モデル選択は、推定困難のため、ディープラーニングではほとんど使われない。
本研究は,検証データが利用できない場合,限界的可能性によって一般化が向上し,有用であることを示す。
論文 参考訳(メタデータ) (2021-04-11T09:50:24Z) - Learning Invariant Representations and Risks for Semi-supervised Domain
Adaptation [109.73983088432364]
半教師付きドメイン適応(Semi-DA)の設定の下で不変表現とリスクを同時に学習することを目的とした最初の手法を提案する。
共同で textbfLearning textbfInvariant textbfRepresentations と textbfRisks の LIRR アルゴリズムを導入する。
論文 参考訳(メタデータ) (2020-10-09T15:42:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。