論文の概要: ReX: A Framework for Incorporating Temporal Information in
Model-Agnostic Local Explanation Techniques
- arxiv url: http://arxiv.org/abs/2209.03798v2
- Date: Fri, 26 May 2023 04:29:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-29 23:57:02.413379
- Title: ReX: A Framework for Incorporating Temporal Information in
Model-Agnostic Local Explanation Techniques
- Title(参考訳): rex: モデル非依存な局所的説明手法に時間情報を取り込むフレームワーク
- Authors: Junhao Liu, Xin Zhang
- Abstract要約: 可変長入力を処理するモデルに様々な説明手法を適用するためのフレームワークであるReXを提案する。
LIME と Anchors の2つの一般的な説明手法にアプローチをインスタンス化する。
評価の結果,本手法は説明の忠実さと理解可能性を大幅に向上させることが示された。
- 参考スコア(独自算出の注目度): 9.039022899550883
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural network models that can handle inputs of variable lengths are
powerful, but often hard to interpret. The lack of transparency hinders their
adoption in many domains. Explanation techniques are essential for improving
transparency. However, existing model-agnostic general explanation techniques
do not consider the variable lengths of input data points, which limits their
effectiveness. To address this limitation, we propose ReX, a general framework
for adapting various explanation techniques to models that process
variable-length inputs, expanding explanation coverage to data points of
different lengths. Our approach adds temporal information to the explanations
generated by existing techniques without altering their core algorithms. We
instantiate our approach on two popular explanation techniques: LIME and
Anchors. To evaluate the effectiveness of ReX, we apply our approach to three
models in two different tasks. Our evaluation results demonstrate that our
approach significantly improves the fidelity and understandability of
explanations.
- Abstract(参考訳): 可変長の入力を処理できるニューラルネットワークモデルは強力だが、しばしば解釈するのが困難である。
透明性の欠如は、多くのドメインで採用を妨げる。
説明技法は透明性向上に不可欠である。
しかし、既存のモデル非依存の一般的な説明技術は入力データポイントの可変長を考慮せず、有効性を制限している。
この制限に対処するため、可変長入力を処理するモデルに様々な説明手法を適用するための一般的なフレームワークであるReXを提案し、説明範囲を異なる長さのデータポイントに拡大する。
提案手法では,コアアルゴリズムを変更することなく,既存の手法による説明に時間的情報を加える。
LIME と Anchors の2つの一般的な説明手法にアプローチをインスタンス化する。
ReXの有効性を評価するために,2つの異なるタスクにおいて3つのモデルに適用する。
評価の結果,本手法は説明の忠実性と理解性を大幅に向上させることがわかった。
関連論文リスト
- Solving the enigma: Deriving optimal explanations of deep networks [3.9584068556746246]
本稿では,ディープネットワークの説明可能性を高めるための新しいフレームワークを提案する。
本フレームワークは,確立したXAI手法の様々な説明を統合し,非説明を用いて最適な説明を構築する。
以上の結果から,特定基準に基づく最適説明が導出可能であることが示唆された。
論文 参考訳(メタデータ) (2024-05-16T11:49:08Z) - Diffexplainer: Towards Cross-modal Global Explanations with Diffusion Models [51.21351775178525]
DiffExplainerは、言語ビジョンモデルを活用することで、マルチモーダルなグローバルな説明可能性を実現する新しいフレームワークである。
最適化されたテキストプロンプトに条件付けされた拡散モデルを使用し、クラス出力を最大化する画像を合成する。
生成した視覚的記述の分析により、バイアスと突発的特徴の自動識別が可能になる。
論文 参考訳(メタデータ) (2024-04-03T10:11:22Z) - Local Universal Explainer (LUX) -- a rule-based explainer with factual, counterfactual and visual explanations [7.673339435080445]
Local Universal Explainer (LUX) は、現実的、対実的、視覚的な説明を生成できるルールベースの説明器である。
これは、決定木アルゴリズムの修正版に基づいており、斜め分割とSHAPのような重要なXAIメソッドとの統合を可能にする。
提案手法を実データと合成データセットで検証し, LORE, EXPLAN, Anchorなどの最先端のルールベースの説明器と比較した。
論文 参考訳(メタデータ) (2023-10-23T13:04:15Z) - Non-Separable Multi-Dimensional Network Flows for Visual Computing [62.50191141358778]
本研究では,非分離型多次元ネットワークフローに対する新しい定式化法を提案する。
フローは次元ごとに定義されるので、最大化フローは自動的に最適な特徴次元を選択する。
概念実証として,マルチオブジェクト追跡問題にフォーマリズムを適用し,ノイズに対するロバスト性の観点からMOT16ベンチマークのスカラー定式化よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-05-15T13:21:44Z) - Learning with Explanation Constraints [91.23736536228485]
我々は、説明がモデルの学習をどのように改善するかを分析するための学習理論フレームワークを提供する。
我々は,多数の合成および実世界の実験に対して,我々のアプローチの利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T15:06:47Z) - Shapelet-Based Counterfactual Explanations for Multivariate Time Series [0.9990687944474738]
我々は,モデル非依存多変量時系列(MTS)の対実的説明アルゴリズムを開発した。
我々は、実生活の太陽フレア予測データセット上で、我々のアプローチを検証し、我々のアプローチが高品質な反事実を生み出すことを証明した。
視覚的に解釈可能であることに加えて、我々の説明は近接性、疎性、そして妥当性の点で優れている。
論文 参考訳(メタデータ) (2022-08-22T17:33:31Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - Interpretable pipelines with evolutionarily optimized modules for RL
tasks with visual inputs [5.254093731341154]
進化的アルゴリズムを用いて協調最適化された複数の解釈可能なモデルからなるエンドツーエンドパイプラインを提案する。
Atariベンチマークの強化学習環境において,本手法を検証した。
論文 参考訳(メタデータ) (2022-02-10T10:33:44Z) - Revisiting Point Cloud Simplification: A Learnable Feature Preserving
Approach [57.67932970472768]
MeshとPoint Cloudの単純化手法は、3Dモデルの複雑さを低減しつつ、視覚的品質と関連する健全な機能を維持することを目的としている。
そこで本研究では,正解点の標本化を学習し,高速点雲の簡易化手法を提案する。
提案手法は、入力空間から任意のユーザ定義の点数を選択し、視覚的知覚誤差を最小限に抑えるために、その位置を再配置するよう訓練されたグラフニューラルネットワークアーキテクチャに依存する。
論文 参考訳(メタデータ) (2021-09-30T10:23:55Z) - Model-agnostic and Scalable Counterfactual Explanations via
Reinforcement Learning [0.5729426778193398]
本稿では,最適化手順をエンドツーエンドの学習プロセスに変換する深層強化学習手法を提案する。
実世界のデータを用いた実験により,本手法はモデルに依存しず,モデル予測からのフィードバックのみに依存することがわかった。
論文 参考訳(メタデータ) (2021-06-04T16:54:36Z) - Closed-Form Factorization of Latent Semantics in GANs [65.42778970898534]
画像合成のために訓練されたGAN(Generative Adversarial Networks)の潜在空間に、解釈可能な次元の豊富なセットが出現することが示されている。
本研究では,GANが学習した内部表現について検討し,その基礎となる変動要因を教師なしで明らかにする。
本稿では,事前学習した重みを直接分解することで,潜在意味発見のためのクローズドフォーム因数分解アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-13T18:05:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。