論文の概要: EVO-LRP: Evolutionary Optimization of LRP for Interpretable Model Explanations
- arxiv url: http://arxiv.org/abs/2509.23585v2
- Date: Tue, 30 Sep 2025 17:40:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-01 14:44:59.865488
- Title: EVO-LRP: Evolutionary Optimization of LRP for Interpretable Model Explanations
- Title(参考訳): EVO-LRP:解釈可能なモデル記述のためのLRPの進化的最適化
- Authors: Emerald Zhang, Julian Weaver, Samantha R Santacruz, Edward Castillo,
- Abstract要約: 説明可能なAI(XAI)メソッドは、どの画像領域がモデルの予測に影響を与えるかを特定するのに役立つが、ディテールと解釈可能性の間のトレードオフに直面していることが多い。
本稿では,CMA-ES(Co Matrix Adaptation Evolution Strategy)を用いて,量的解釈可能性指標に基づくLRPハイパーパラメータのチューニングを行う手法であるEVO-LRPを紹介する。
EVO-LRPは、解釈可能性メトリックのパフォーマンスと視覚的コヒーレンスの両方において従来のXAIアプローチより優れており、クラス固有の特徴に対して強い感度を持つ。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explainable AI (XAI) methods help identify which image regions influence a model's prediction, but often face a trade-off between detail and interpretability. Layer-wise Relevance Propagation (LRP) offers a model-aware alternative. However, LRP implementations commonly rely on heuristic rule sets that are not optimized for clarity or alignment with model behavior. We introduce EVO-LRP, a method that applies Covariance Matrix Adaptation Evolution Strategy (CMA-ES) to tune LRP hyperparameters based on quantitative interpretability metrics, such as faithfulness or sparseness. EVO-LRP outperforms traditional XAI approaches in both interpretability metric performance and visual coherence, with strong sensitivity to class-specific features. These findings demonstrate that attribution quality can be systematically improved through principled, task-specific optimization.
- Abstract(参考訳): 説明可能なAI(XAI)メソッドは、どの画像領域がモデルの予測に影響を与えるかを特定するのに役立つが、ディテールと解釈可能性の間のトレードオフに直面していることが多い。
LRP(Layer-wise Relevance Propagation)は、モデル対応の代替手段を提供する。
しかし、LRPの実装は通常、モデル動作の明確性や整合性に最適化されていないヒューリスティックなルールセットに依存している。
本稿では,共分散行列適応進化戦略(CMA-ES)を適用し,忠実度や疎度などの定量的解釈可能性指標に基づいてLRPハイパーパラメータをチューニングする手法であるEVO-LRPを紹介する。
EVO-LRPは、解釈可能性メトリックのパフォーマンスと視覚的コヒーレンスの両方において従来のXAIアプローチより優れており、クラス固有の特徴に対して強い感度を持つ。
これらの結果から,タスク固有の最適化によって属性品質を体系的に改善できることが示唆された。
関連論文リスト
- AM-PPO: (Advantage) Alpha-Modulation with Proximal Policy Optimization [0.0]
本稿では、動的非線形スケーリング機構を用いて利点推定を適応的に変調するPPOの新たな拡張であるAdvantage Modulation PPO(AM-PPO)を紹介する。
AM-PPOは、勾配の更新を安定させ、方針勾配のランドスケープの条件付けを改善するために、利点信号を再確認する。
これらの知見は、強化学習最適化の強化に広く応用できる手法として、有利な変調の可能性を示している。
論文 参考訳(メタデータ) (2025-05-21T13:38:45Z) - Self-Boost via Optimal Retraining: An Analysis via Approximate Message Passing [58.52119063742121]
独自の予測と潜在的にノイズの多いラベルを使ってモデルをトレーニングすることは、モデルパフォーマンスを改善するためのよく知られた戦略である。
本稿では,モデルの予測と提供ラベルを最適に組み合わせる方法について論じる。
我々の主な貢献は、現在のモデルの予測と与えられたラベルを組み合わせたベイズ最適集約関数の導出である。
論文 参考訳(メタデータ) (2025-05-21T07:16:44Z) - Learning Dynamic Representations via An Optimally-Weighted Maximum Mean Discrepancy Optimization Framework for Continual Learning [16.10753846850319]
継続的な学習は、モデルを永続的に取得し、保持することを可能にする。
悲惨な忘れ物は モデルパフォーマンスを著しく損なう
本稿では,表現変更に対する罰則を課す,OPMMD(Optimally-Weighted Mean Discrepancy)と呼ばれる新しいフレームワークを紹介する。
論文 参考訳(メタデータ) (2025-01-21T13:33:45Z) - Fine-grained Analysis of In-context Linear Estimation: Data, Architecture, and Beyond [44.154393889313724]
線形注意を持つ変圧器は、降下ステップを通して線形勾配推定器を実装することにより、文脈内学習(ICL)を行うことができる。
我々は、アーキテクチャ、低ランクパラメータ化、および相関設計への貢献を通じて、ICLの最適化と一般化の展望をより強く評価する。
論文 参考訳(メタデータ) (2024-07-13T21:13:55Z) - Entropy-Regularized Token-Level Policy Optimization for Language Agent Reinforcement [67.1393112206885]
大規模言語モデル(LLM)は、対話的な意思決定タスクにおいてインテリジェントなエージェントとして期待されている。
本稿では,トークンレベルでのLLMの最適化に適したエントロピー拡張RL法である,エントロピー正規化トークンレベル最適化(ETPO)を導入する。
我々は,データサイエンスコード生成を多段階対話型タスクのシリーズとしてモデル化したシミュレーション環境におけるETPOの有効性を評価する。
論文 参考訳(メタデータ) (2024-02-09T07:45:26Z) - ASR: Attention-alike Structural Re-parameterization [53.019657810468026]
本稿では,アテンション機構の有効性を享受しながら,与えられたネットワークに対してSRPを実現するための,シンプルなアテンション型構造的再パラメータ化(ASR)を提案する。
本稿では,統計的観点から広範囲にわたる実験を行い,Stripe Observationという興味深い現象を発見し,チャネル注意値が訓練中に一定のベクトルに素早く接近することを明らかにする。
論文 参考訳(メタデータ) (2023-04-13T08:52:34Z) - An Information-Theoretic Perspective on Variance-Invariance-Covariance Regularization [52.44068740462729]
我々は、VICRegの目的に関する情報理論的な視点を示す。
我々は、VICRegの一般化を導出し、下流タスクに固有の利点を明らかにした。
既存のSSL技術よりも優れた情報理論の原理から派生したSSL手法のファミリーを紹介する。
論文 参考訳(メタデータ) (2023-03-01T16:36:25Z) - Latent Variable Representation for Reinforcement Learning [131.03944557979725]
モデルに基づく強化学習のサンプル効率を改善するために、潜在変数モデルが学習、計画、探索をいかに促進するかは理論上、実証上、不明である。
状態-作用値関数に対する潜在変数モデルの表現ビューを提供する。これは、抽出可能な変分学習アルゴリズムと楽観主義/悲観主義の原理の効果的な実装の両方を可能にする。
特に,潜伏変数モデルのカーネル埋め込みを組み込んだUPB探索を用いた計算効率の良い計画アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-12-17T00:26:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。