論文の概要: Fast Explanations via Policy Gradient-Optimized Explainer
- arxiv url: http://arxiv.org/abs/2405.18664v2
- Date: Mon, 27 Jan 2025 20:01:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-29 16:39:35.059247
- Title: Fast Explanations via Policy Gradient-Optimized Explainer
- Title(参考訳): ポリシーグラディエント最適化記述器による高速説明
- Authors: Deng Pan, Nuno Moniz, Nitesh Chawla,
- Abstract要約: 本稿では,確率分布による帰属に基づく説明を表現する新しい枠組みを提案する。
提案するフレームワークは、リアルタイムで大規模なモデル説明のための堅牢でスケーラブルなソリューションを提供する。
画像とテキストの分類作業におけるフレームワークの有効性を検証するとともに,提案手法は推論時間を97%以上削減し,メモリ使用量を70%以上削減することを示した。
- 参考スコア(独自算出の注目度): 7.011763596804071
- License:
- Abstract: The challenge of delivering efficient explanations is a critical barrier that prevents the adoption of model explanations in real-world applications. Existing approaches often depend on extensive model queries for sample-level explanations or rely on expert's knowledge of specific model structures that trade general applicability for efficiency. To address these limitations, this paper introduces a novel framework Fast Explanation (FEX) that represents attribution-based explanations via probability distributions, which are optimized by leveraging the policy gradient method. The proposed framework offers a robust, scalable solution for real-time, large-scale model explanations, bridging the gap between efficiency and applicability. We validate our framework on image and text classification tasks and the experiments demonstrate that our method reduces inference time by over 97% and memory usage by 70% compared to traditional model-agnostic approaches while maintaining high-quality explanations and broad applicability.
- Abstract(参考訳): 効率的な説明を提供することの難しさは、現実世界のアプリケーションでモデル説明を採用することを妨げる重要な障壁である。
既存のアプローチは、しばしばサンプルレベルの説明のための広範囲なモデルクエリに依存するか、あるいは、効率性のために一般的な適用性を交換する特定のモデル構造に関する専門家の知識に依存している。
これらの制約に対処するために,政策勾配法を利用して最適化された確率分布による帰属に基づく説明を表現する新しいフレームワークFEX(Fast Explanation)を提案する。
提案したフレームワークは、リアルタイムで大規模なモデル説明のための堅牢でスケーラブルなソリューションを提供し、効率性と適用性の間のギャップを埋める。
画像およびテキスト分類タスクの枠組みを検証した結果,提案手法は従来のモデルに依存しない手法と比較して,推論時間を97%以上削減し,メモリ使用量を70%削減し,高品質な説明と広範囲な適用性を維持した。
関連論文リスト
- Spurious Feature Eraser: Stabilizing Test-Time Adaptation for Vision-Language Foundation Model [86.9619638550683]
視覚言語基礎モデルは、画像とテキストのペアデータに拡張性があるため、多数の下流タスクで顕著な成功を収めている。
しかし、これらのモデルは、決定ショートカットの結果、きめ細かな画像分類などの下流タスクに適用した場合に重大な制限を呈する」。
論文 参考訳(メタデータ) (2024-03-01T09:01:53Z) - Faithful Explanations of Black-box NLP Models Using LLM-generated
Counterfactuals [67.64770842323966]
NLPシステムの予測に関する因果的説明は、安全性を確保し、信頼を確立するために不可欠である。
既存の手法は、しばしばモデル予測を効果的または効率的に説明できない。
本稿では, 対物近似(CF)の2つの手法を提案する。
論文 参考訳(メタデータ) (2023-10-01T07:31:04Z) - Approximating Score-based Explanation Techniques Using Conformal
Regression [0.1843404256219181]
スコアベースの説明可能な機械学習技術は、ブラックボックスモデルの背後にあるロジックを理解するためにしばしば使用される。
本稿では,SHAPなどのスコアベースの説明手法の出力を近似するために,計算コストの低い回帰モデルを提案する。
本稿では,提案モデルから得られた近似的説明を効率的に評価する大規模実証研究の結果を報告する。
論文 参考訳(メタデータ) (2023-08-23T07:50:43Z) - REX: Rapid Exploration and eXploitation for AI Agents [103.68453326880456]
本稿では、REXと呼ばれるAIエージェントのための高速探索およびeXploitationのための改良されたアプローチを提案する。
REXは追加の報酬層を導入し、アッパー信頼境界(UCB)スコアに似た概念を統合し、より堅牢で効率的なAIエージェントのパフォーマンスをもたらす。
論文 参考訳(メタデータ) (2023-07-18T04:26:33Z) - Advancing Counterfactual Inference through Nonlinear Quantile Regression [77.28323341329461]
ニューラルネットワークで実装された効率的かつ効果的な対実的推論のためのフレームワークを提案する。
提案手法は、推定された反事実結果から見つからないデータまでを一般化する能力を高める。
複数のデータセットで実施した実証実験の結果は、我々の理論的な主張に対する説得力のある支持を提供する。
論文 参考訳(メタデータ) (2023-06-09T08:30:51Z) - GLOBE-CE: A Translation-Based Approach for Global Counterfactual
Explanations [10.276136171459731]
Global & Efficient Counterfactual Explanations (GLOBE-CE)は、現在の最先端技術に関連する信頼性とスケーラビリティの問題に取り組む柔軟なフレームワークである。
分類的特徴翻訳を数学的に解析し,その手法を応用した。
公開データセットとユーザスタディによる実験的評価は、GLOBE-CEが現在の最先端よりも大幅にパフォーマンスが向上していることを示している。
論文 参考訳(メタデータ) (2023-05-26T15:26:59Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - A Unifying Framework for Causal Explanation of Sequential Decision
Making [24.29934526009098]
本稿では、シーケンシャルな意思決定システムの因果的説明のための新しい枠組みを提案する。
本稿では,単一の統一的アプローチを用いて,エージェントアクションに対して意味的に異なるタイプの説明を識別する方法を示す。
論文 参考訳(メタデータ) (2022-05-30T23:17:58Z) - Revisiting GANs by Best-Response Constraint: Perspective, Methodology,
and Application [49.66088514485446]
ベストレスポンス制約(Best-Response Constraint、BRC)は、ジェネレータのディスクリミネータへの依存性を明示的に定式化する一般的な学習フレームワークである。
モチベーションや定式化の相違があっても, フレキシブルBRC法により, 様々なGANが一様に改善できることが示される。
論文 参考訳(メタデータ) (2022-05-20T12:42:41Z) - CARE: Coherent Actionable Recourse based on Sound Counterfactual
Explanations [0.0]
本稿では,モデルおよびユーザレベルのデシダータに対処するモジュール型説明フレームワークであるCAREを紹介する。
モデルに依存しないアプローチとして、CAREはブラックボックスモデルに対して複数の多様な説明を生成する。
論文 参考訳(メタデータ) (2021-08-18T15:26:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。