論文の概要: Improving Local Fidelity Through Sampling and Modeling Nonlinearity
- arxiv url: http://arxiv.org/abs/2512.05556v1
- Date: Fri, 05 Dec 2025 09:26:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-13 22:40:56.978448
- Title: Improving Local Fidelity Through Sampling and Modeling Nonlinearity
- Title(参考訳): サンプリングと非線形モデリングによる局所忠実度の改善
- Authors: Sanjeev Shrestha, Rahul Dubey, Hui Liu,
- Abstract要約: Local Interpretable Model-Agnostic Explanation (LIME) は、局所的な決定境界が線形であり、非線形の関係を捉えることができないと仮定する。
本稿では,高忠実度な説明を生成できる新しい手法を提案する。
- 参考スコア(独自算出の注目度): 3.7080015862513847
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the increasing complexity of black-box machine learning models and their adoption in high-stakes areas, it is critical to provide explanations for their predictions. Local Interpretable Model-agnostic Explanation (LIME) is a widely used technique that explains the prediction of any classifier by learning an interpretable model locally around the predicted instance. However, it assumes that the local decision boundary is linear and fails to capture the non-linear relationships, leading to incorrect explanations. In this paper, we propose a novel method that can generate high-fidelity explanations. Multivariate adaptive regression splines (MARS) is used to model non-linear local boundaries that effectively captures the underlying behavior of the reference model, thereby enhancing the local fidelity of the explanation. Additionally, we utilize the N-ball sampling technique, which samples directly from the desired distribution instead of reweighting samples as done in LIME, further improving the faithfulness score. We evaluate our method on three UCI datasets across different classifiers and varying kernel widths. Experimental results show that our method yields more faithful explanations compared to baselines, achieving an average reduction of 37% in root mean square error, significantly improving local fidelity.
- Abstract(参考訳): ブラックボックス機械学習モデルの複雑さの増大と、それらがハイテイク領域で採用されていることから、それらの予測を説明することが重要である。
LIME(Local Interpretable Model-Agnostic Explanation)は、予測されたインスタンスの周辺で解釈可能なモデルを学習することによって、任意の分類器の予測を説明する手法である。
しかし、局所的な決定境界は線形であり、非線形の関係を捉えることに失敗し、誤った説明につながると仮定する。
本稿では,高忠実度な説明を生成できる新しい手法を提案する。
多変量適応回帰スプライン(MARS)は、参照モデルの基盤となる振る舞いを効果的に捉え、説明の局所的忠実性を高める非線形局所境界をモデル化するために用いられる。
さらに,LIMEで行ったサンプルの再重み付けの代わりに,所望の分布から直接サンプルを採取するN-ballスライシング手法を用いて,忠実度スコアをさらに向上する。
異なる分類器と異なるカーネル幅にまたがる3つのUCIデータセットについて,本手法の評価を行った。
実験結果から,本手法はベースラインよりも忠実に説明でき,ルート平均2乗誤差が平均37%減少し,局所忠実度が著しく向上することがわかった。
関連論文リスト
- Bifidelity Karhunen-Loève Expansion Surrogate with Active Learning for Random Fields [0.4899818550820576]
本稿では、不確実な入力条件下で、フィールド値の利子(QoIs)に対する二元性カルフネン・ローブ拡張(KLE)サロゲートモデルを提案する。
我々は,サロゲートの一般化誤差に基づいて,新しいHF評価を適応的に選択する能動的学習戦略を形成する。
新しいHFサンプルは、高いサロゲート誤差の領域をターゲットとして、期待される改善基準を最大化することによって取得される。
論文 参考訳(メタデータ) (2025-11-05T04:14:44Z) - Nonparametric Data Attribution for Diffusion Models [57.820618036556084]
生成モデルのデータ属性は、個々のトレーニング例がモデル出力に与える影響を定量化する。
生成画像とトレーニング画像のパッチレベルの類似性によって影響を測定する非パラメトリック属性法を提案する。
論文 参考訳(メタデータ) (2025-10-16T03:37:16Z) - Reference-Specific Unlearning Metrics Can Hide the Truth: A Reality Check [60.77691669644931]
本研究では,非学習モデルと参照モデル間の分布類似度を測定する新しい尺度であるFADE(Functional Alignment for Distributional Equivalence)を提案する。
FADEは出力分布全体の機能的アライメントをキャプチャし、真の未学習の原則的評価を提供する。
これらの知見は、現在の評価実践における根本的なギャップを明らかにし、FADEが真に効果的な未学習手法を開発し評価するための、より堅牢な基盤を提供することを示した。
論文 参考訳(メタデータ) (2025-10-14T20:50:30Z) - Minimizing False-Positive Attributions in Explanations of Non-Linear Models [5.186535458271726]
Suppressor変数は、対象とする結果に依存することなく、モデル予測に影響を与える可能性がある。
これらの変数は偽陽性の特徴属性を引き起こし、説明の有用性を損なう可能性がある。
このギャップに対処する新しいXAI技術であるPatternLocalを紹介します。
論文 参考訳(メタデータ) (2025-05-16T13:06:12Z) - MASALA: Model-Agnostic Surrogate Explanations by Locality Adaptation [3.587367153279351]
既存のローカル説明可能なAI(XAI)メソッドは、与えられた入力インスタンスの近傍にある入力空間の領域を選択し、より単純で解釈可能な代理モデルを用いてモデルの振る舞いを近似する。
そこで本研究では,各インスタンスごとの衝突モデル行動の適切な局所領域を自動決定する手法であるMASALAを提案する。
論文 参考訳(メタデータ) (2024-08-19T15:26:45Z) - Aggregation Weighting of Federated Learning via Generalization Bound
Estimation [65.8630966842025]
フェデレートラーニング(FL)は通常、サンプル比率によって決定される重み付けアプローチを使用して、クライアントモデルパラメータを集約する。
上記の重み付け法を,各局所モデルの一般化境界を考慮した新しい戦略に置き換える。
論文 参考訳(メタデータ) (2023-11-10T08:50:28Z) - Diffusion models for probabilistic programming [56.47577824219207]
拡散モデル変分推論(DMVI)は確率型プログラミング言語(PPL)における自動近似推論手法である
DMVIは実装が容易で、例えば正規化フローを用いた変分推論の欠点を伴わずに、PPLでヘイズルフリー推論が可能であり、基礎となるニューラルネットワークモデルに制約を課さない。
論文 参考訳(メタデータ) (2023-11-01T12:17:05Z) - Predicting Out-of-Domain Generalization with Neighborhood Invariance [59.05399533508682]
局所変換近傍における分類器の出力不変性の尺度を提案する。
私たちの測度は計算が簡単で、テストポイントの真のラベルに依存しません。
画像分類,感情分析,自然言語推論のベンチマーク実験において,我々の測定値と実際のOOD一般化との間に強い相関関係を示す。
論文 参考訳(メタデータ) (2022-07-05T14:55:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。