論文の概要: MASALA: Model-Agnostic Surrogate Explanations by Locality Adaptation
- arxiv url: http://arxiv.org/abs/2408.10085v1
- Date: Mon, 19 Aug 2024 15:26:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-20 15:43:09.842829
- Title: MASALA: Model-Agnostic Surrogate Explanations by Locality Adaptation
- Title(参考訳): MASALA: 局所性適応によるモデル非依存的サロゲート説明
- Authors: Saif Anwar, Nathan Griffiths, Abhir Bhalerao, Thomas Popham,
- Abstract要約: 既存のローカル説明可能なAI(XAI)メソッドは、与えられた入力インスタンスの近傍にある入力空間の領域を選択し、より単純で解釈可能な代理モデルを用いてモデルの振る舞いを近似する。
そこで本研究では,各インスタンスごとの衝突モデル行動の適切な局所領域を自動決定する手法であるMASALAを提案する。
- 参考スコア(独自算出の注目度): 3.587367153279351
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Existing local Explainable AI (XAI) methods, such as LIME, select a region of the input space in the vicinity of a given input instance, for which they approximate the behaviour of a model using a simpler and more interpretable surrogate model. The size of this region is often controlled by a user-defined locality hyperparameter. In this paper, we demonstrate the difficulties associated with defining a suitable locality size to capture impactful model behaviour, as well as the inadequacy of using a single locality size to explain all predictions. We propose a novel method, MASALA, for generating explanations, which automatically determines the appropriate local region of impactful model behaviour for each individual instance being explained. MASALA approximates the local behaviour used by a complex model to make a prediction by fitting a linear surrogate model to a set of points which experience similar model behaviour. These points are found by clustering the input space into regions of linear behavioural trends exhibited by the model. We compare the fidelity and consistency of explanations generated by our method with existing local XAI methods, namely LIME and CHILLI. Experiments on the PHM08 and MIDAS datasets show that our method produces more faithful and consistent explanations than existing methods, without the need to define any sensitive locality hyperparameters.
- Abstract(参考訳): LIMEのような既存のローカルな説明可能なAI(XAI)手法は、与えられた入力インスタンスの近傍にある入力空間の領域を選択し、より単純で解釈可能なサロゲートモデルを用いてモデルの振る舞いを近似する。
この領域のサイズは、しばしばユーザーが定義した局所性ハイパーパラメータによって制御される。
本稿では,影響のあるモデル振る舞いを捉えるために適切な局所性サイズを定義することに関わる問題点と,すべての予測を説明するために単一局所性サイズを使用することの不適切さを示す。
そこで本研究では,各インスタンスごとの衝突モデル行動の適切な局所領域を自動決定する手法であるMASALAを提案する。
MASALAは、複素モデルで用いられる局所的挙動を近似し、線形代理モデルを同様のモデル挙動を経験する点の集合に適合させて予測する。
これらの点は、入力空間をモデルによって示される線形な挙動傾向の領域にクラスタリングすることによって得られる。
提案手法で生成した説明の忠実度と一貫性を,既存の局所XAI法,すなわち LIME と CHILLI と比較した。
PHM08およびMIDASデータセットを用いた実験により,本手法は感度局所性ハイパーパラメータを定義することなく,既存の手法よりも忠実で一貫した説明が得られた。
関連論文リスト
- Guarantee Regions for Local Explanations [29.429229877959663]
局所的な説明が正しいと保証される領域を同定するアンカーベースアルゴリズムを提案する。
提案手法は,局所代理モデルの予測が予測モデルと一致するように保証される,解釈可能な特徴整合ボックスを生成する。
論文 参考訳(メタデータ) (2024-02-20T06:04:44Z) - GLIME: General, Stable and Local LIME Explanation [11.002828804775392]
LIME(Local Interpretable Model-Agnostic Explanations)は、モデル行動を理解するために広く用いられる手法である。
GLIMEは、LIMEを拡張し、いくつかの先行メソッドを統合する拡張フレームワークである。
局所的および非バイアスなサンプリング分布を用いることで、GLIMEはLIMEと比較して局所的忠実度の高い説明を生成する。
論文 参考訳(メタデータ) (2023-11-27T11:17:20Z) - Reconstructing Spatiotemporal Data with C-VAEs [49.1574468325115]
移動領域の条件付き連続表現は一般的に用いられる。
本研究では,条件変数自動エンコーダ(C-VAE)モデルを用いて,領域の進化を現実的に表現する機能について検討する。
論文 参考訳(メタデータ) (2023-07-12T15:34:10Z) - RbX: Region-based explanations of prediction models [69.3939291118954]
領域に基づく説明(RbX)は、ブラックボックス予測モデルからスカラー出力の局所的な説明を生成するモデルに依存しない方法である。
RbXは「スパーシティ公理(sparsity axiom)」を満たすことが保証されており、予測モデルに入らない特徴は重要視されない。
論文 参考訳(メタデータ) (2022-10-17T03:38:06Z) - Change Detection for Local Explainability in Evolving Data Streams [72.4816340552763]
局所的特徴帰属法はポストホックやモデルに依存しない説明法として人気がある。
ローカルな属性が、ストリーミングやオンラインアプリケーションのような、現実的で絶えず変化する設定でどのように振る舞うかは、しばしば不明である。
局所変化と概念ドリフトを検出するフレキシブルでモデルに依存しないCDLEEDSを提案する。
論文 参考訳(メタデータ) (2022-09-06T18:38:34Z) - Distilling Model Failures as Directions in Latent Space [87.30726685335098]
本稿では,モデルの故障モードを自動的に抽出するスケーラブルな方法を提案する。
線形分類器を用いて一貫したエラーパターンを識別し、これらの障害モードを特徴空間内の方向として自然な表現を誘導する。
このフレームワークにより、トレーニングデータセット内の課題のあるサブポピュレーションを発見し、自動的にキャプションし、これらのサブポピュレーションにおけるモデルのパフォーマンスを改善することができることを示す。
論文 参考訳(メタデータ) (2022-06-29T16:35:24Z) - Contrastive Neighborhood Alignment [81.65103777329874]
本稿では,学習特徴のトポロジを維持するための多様体学習手法であるContrastive Neighborhood Alignment(CNA)を提案する。
対象モデルは、対照的な損失を用いて、ソース表現空間の局所構造を模倣することを目的としている。
CNAは3つのシナリオで説明される: 多様体学習、モデルが元のデータの局所的なトポロジーを次元還元された空間で維持する、モデル蒸留、小さな学生モデルがより大きな教師を模倣するために訓練される、レガシーモデル更新、より強力なモデルに置き換えられる、という3つのシナリオである。
論文 参考訳(メタデータ) (2022-01-06T04:58:31Z) - Towards Better Model Understanding with Path-Sufficient Explanations [11.517059323883444]
Path-Sufficient Explanations Method (PSEM) は、厳格に小さくなった入力に対する十分な説明の系列である。
PSEMはモデルの局所的な境界を滑らかに辿り、特定の入力に対する局所的なモデルの振る舞いに関するより良い直感を与えると考えられる。
ユーザスタディでは、(多くの)ユーザがモデルによってなされた予測を正しく決定できる地域行動を伝える方法の強みを描いている。
論文 参考訳(メタデータ) (2021-09-13T16:06:10Z) - MD-split+: Practical Local Conformal Inference in High Dimensions [0.5439020425819]
MD-split+は、局所化されたモデル性能に基づいてXパーティションを生成する、実用的な局所共形アプローチである。
我々は,我々の局所的分割が条件付き共形推論手法から期待される行動と哲学的にどのように一致しているかを論じる。
論文 参考訳(メタデータ) (2021-07-07T15:19:16Z) - VAE-LIME: Deep Generative Model Based Approach for Local Data-Driven
Model Interpretability Applied to the Ironmaking Industry [70.10343492784465]
モデル予測だけでなく、その解釈可能性も、プロセスエンジニアに公開する必要があります。
LIMEに基づくモデルに依存しない局所的解釈可能性ソリューションが最近出現し、元の手法が改良された。
本稿では, 燃焼炉で生成する高温金属の温度を推定するデータ駆動型モデルの局所的解釈可能性に関する新しいアプローチ, VAE-LIMEを提案する。
論文 参考訳(メタデータ) (2020-07-15T07:07:07Z) - Explaining Predictions by Approximating the Local Decision Boundary [3.60160227126201]
局所決定境界近似(DBA)の新しい手法を提案する。
我々は変分オートエンコーダを訓練し、符号化されたデータ表現のユークリッド潜在空間を学習する。
我々は属性アノテーションを利用して、潜在空間をユーザにとって意味のある属性にマッピングします。
論文 参考訳(メタデータ) (2020-06-14T19:12:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。