論文の概要: ReX: A Framework for Incorporating Temporal Information in Model-Agnostic Local Explanation Techniques
- arxiv url: http://arxiv.org/abs/2209.03798v3
- Date: Sat, 01 Mar 2025 02:56:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-04 13:04:45.686523
- Title: ReX: A Framework for Incorporating Temporal Information in Model-Agnostic Local Explanation Techniques
- Title(参考訳): ReX: モデルに依存しない局所説明手法における時間情報の導入フレームワーク
- Authors: Junhao Liu, Xin Zhang,
- Abstract要約: 機械学習モデルに時間情報を統合するフレームワークであるtextscReXを提案する。
我々は、Anchors、LIME、Kernel SHAPの3つの一般的な説明手法にアプローチをインスタンス化する。
評価の結果,本手法は説明の忠実度を著しく向上させることが示された。
- 参考スコア(独自算出の注目度): 6.925575010275777
- License:
- Abstract: Existing local model-agnostic explanation techniques are ineffective for machine learning models that consider inputs of variable lengths, as they do not consider temporal information embedded in these models. To address this limitation, we propose \textsc{ReX}, a general framework for incorporating temporal information in these techniques. Our key insight is that these techniques typically learn a model surrogate by sampling model inputs and outputs, and we can incorporate temporal information in a uniform way by only changing the sampling process and the surrogate features. We instantiate our approach on three popular explanation techniques: Anchors, LIME, and Kernel SHAP. To evaluate the effectiveness of \textsc{ReX}, we apply our approach to six models in three different tasks. Our evaluation results demonstrate that our approach 1) significantly improves the fidelity of explanations, making model-agnostic techniques outperform a state-of-the-art model-specific technique on its target model, and 2) helps end users better understand the models' behaviors.
- Abstract(参考訳): 既存の局所モデルに依存しない説明手法は、これらのモデルに埋め込まれた時間情報を考慮しないため、可変長の入力を考慮した機械学習モデルには効果がない。
この制限に対処するため,これらの手法に時間情報を組み込むための一般的なフレームワークである「textsc{ReX}」を提案する。
我々の重要な洞察は、これらの技術は一般的にモデル入力と出力をサンプリングすることでモデル代理を学習し、サンプリングプロセスとサロゲートの特徴だけを変更することで、時間情報を一様に組み込むことができるということである。
我々は、Anchors、LIME、Kernel SHAPの3つの一般的な説明手法にアプローチをインスタンス化する。
提案手法の有効性を評価するために,提案手法を6つのモデルに適用した。
我々の評価結果は、我々のアプローチが示している。
1) 説明の忠実さを著しく改善し, モデル非依存技術は, 対象モデル上で最先端のモデル特化技術より優れ,
2) エンドユーザーがモデルの振る舞いをよりよく理解するのに役立ちます。
関連論文リスト
- Fast Explanations via Policy Gradient-Optimized Explainer [7.011763596804071]
本稿では,確率分布による帰属に基づく説明を表現する新しい枠組みを提案する。
提案するフレームワークは、リアルタイムで大規模なモデル説明のための堅牢でスケーラブルなソリューションを提供する。
画像とテキストの分類作業におけるフレームワークの有効性を検証するとともに,提案手法は推論時間を97%以上削減し,メモリ使用量を70%以上削減することを示した。
論文 参考訳(メタデータ) (2024-05-29T00:01:40Z) - Diffexplainer: Towards Cross-modal Global Explanations with Diffusion Models [51.21351775178525]
DiffExplainerは、言語ビジョンモデルを活用することで、マルチモーダルなグローバルな説明可能性を実現する新しいフレームワークである。
最適化されたテキストプロンプトに条件付けされた拡散モデルを使用し、クラス出力を最大化する画像を合成する。
生成した視覚的記述の分析により、バイアスと突発的特徴の自動識別が可能になる。
論文 参考訳(メタデータ) (2024-04-03T10:11:22Z) - Local Universal Explainer (LUX) -- a rule-based explainer with factual, counterfactual and visual explanations [7.673339435080445]
Local Universal Explainer (LUX) は、現実的、対実的、視覚的な説明を生成できるルールベースの説明器である。
これは、決定木アルゴリズムの修正版に基づいており、斜め分割とSHAPのような重要なXAIメソッドとの統合を可能にする。
提案手法を実データと合成データセットで検証し, LORE, EXPLAN, Anchorなどの最先端のルールベースの説明器と比較した。
論文 参考訳(メタデータ) (2023-10-23T13:04:15Z) - Non-Separable Multi-Dimensional Network Flows for Visual Computing [62.50191141358778]
本研究では,非分離型多次元ネットワークフローに対する新しい定式化法を提案する。
フローは次元ごとに定義されるので、最大化フローは自動的に最適な特徴次元を選択する。
概念実証として,マルチオブジェクト追跡問題にフォーマリズムを適用し,ノイズに対するロバスト性の観点からMOT16ベンチマークのスカラー定式化よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-05-15T13:21:44Z) - Learning with Explanation Constraints [91.23736536228485]
我々は、説明がモデルの学習をどのように改善するかを分析するための学習理論フレームワークを提供する。
我々は,多数の合成および実世界の実験に対して,我々のアプローチの利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T15:06:47Z) - Shapelet-Based Counterfactual Explanations for Multivariate Time Series [0.9990687944474738]
我々は,モデル非依存多変量時系列(MTS)の対実的説明アルゴリズムを開発した。
我々は、実生活の太陽フレア予測データセット上で、我々のアプローチを検証し、我々のアプローチが高品質な反事実を生み出すことを証明した。
視覚的に解釈可能であることに加えて、我々の説明は近接性、疎性、そして妥当性の点で優れている。
論文 参考訳(メタデータ) (2022-08-22T17:33:31Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - Interpretable pipelines with evolutionarily optimized modules for RL
tasks with visual inputs [5.254093731341154]
進化的アルゴリズムを用いて協調最適化された複数の解釈可能なモデルからなるエンドツーエンドパイプラインを提案する。
Atariベンチマークの強化学習環境において,本手法を検証した。
論文 参考訳(メタデータ) (2022-02-10T10:33:44Z) - Revisiting Point Cloud Simplification: A Learnable Feature Preserving
Approach [57.67932970472768]
MeshとPoint Cloudの単純化手法は、3Dモデルの複雑さを低減しつつ、視覚的品質と関連する健全な機能を維持することを目的としている。
そこで本研究では,正解点の標本化を学習し,高速点雲の簡易化手法を提案する。
提案手法は、入力空間から任意のユーザ定義の点数を選択し、視覚的知覚誤差を最小限に抑えるために、その位置を再配置するよう訓練されたグラフニューラルネットワークアーキテクチャに依存する。
論文 参考訳(メタデータ) (2021-09-30T10:23:55Z) - Model-agnostic and Scalable Counterfactual Explanations via
Reinforcement Learning [0.5729426778193398]
本稿では,最適化手順をエンドツーエンドの学習プロセスに変換する深層強化学習手法を提案する。
実世界のデータを用いた実験により,本手法はモデルに依存しず,モデル予測からのフィードバックのみに依存することがわかった。
論文 参考訳(メタデータ) (2021-06-04T16:54:36Z) - Closed-Form Factorization of Latent Semantics in GANs [65.42778970898534]
画像合成のために訓練されたGAN(Generative Adversarial Networks)の潜在空間に、解釈可能な次元の豊富なセットが出現することが示されている。
本研究では,GANが学習した内部表現について検討し,その基礎となる変動要因を教師なしで明らかにする。
本稿では,事前学習した重みを直接分解することで,潜在意味発見のためのクローズドフォーム因数分解アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-13T18:05:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。