論文の概要: ReX: A Framework for Generating Local Explanations to Recurrent Neural
Networks
- arxiv url: http://arxiv.org/abs/2209.03798v1
- Date: Thu, 8 Sep 2022 13:10:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-09 13:20:12.495224
- Title: ReX: A Framework for Generating Local Explanations to Recurrent Neural
Networks
- Title(参考訳): ReX: リカレントニューラルネットワークへのローカル説明を生成するフレームワーク
- Authors: Junhao Liu, Xin Zhang
- Abstract要約: 本稿では,様々な局所的説明手法をリカレントニューラルネットワークに適用するための一般的な枠組みを提案する。
我々のアプローチは、コアアルゴリズムに触れることなく既存の手法の摂動モデルと特徴表現だけを変更するため、一般的なものである。
- 参考スコア(独自算出の注目度): 9.039022899550883
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a general framework to adapt various local explanation techniques
to recurrent neural networks. In particular, our explanations add temporal
information, which expand explanations generated from existing techniques to
cover data points that have different lengths compared to the original input
data point. Our approach is general as it only modifies the perturbation model
and feature representation of existing techniques without touching their core
algorithms. We have instantiated our approach on LIME and Anchors. Our
empirical evaluation shows that it effectively improves the usefulness of
explanations generated by these two techniques on a sentiment analysis network
and an anomaly detection network.
- Abstract(参考訳): 本稿では,様々な局所的説明手法をリカレントニューラルネットワークに適用するための一般的な枠組みを提案する。
特に,既存の手法から生成された説明を拡張して,元の入力データポイントと異なる長さのデータポイントをカバーし,時間的情報を追加する。
我々のアプローチは、コアアルゴリズムに触れることなく既存の手法の摂動モデルと特徴表現だけを変更するため、一般的なものである。
我々はLIMEとAnchorsのアプローチをインスタンス化した。
本研究では,感情分析ネットワークと異常検出ネットワークにおいて,これらの2つの手法による説明の有効性を効果的に向上することを示す。
関連論文リスト
- AttnLRP: Attention-Aware Layer-wise Relevance Propagation for
Transformers [14.756988176469365]
大きな言語モデルは、バイアスのある予測と幻覚の傾向があります。
ブラックボックストランスモデルの完全性への忠実な貢献と計算効率の維持は未解決の課題である。
論文 参考訳(メタデータ) (2024-02-08T12:01:24Z) - Local Agnostic Video Explanations: a Study on the Applicability of
Removal-Based Explanations to Video [0.6906005491572401]
ビデオ領域における局所的な説明のための統一的なフレームワークを提案する。
コントリビューションには,(1)コンピュータビジョンデータに適したきめ細かい説明フレームワークの拡張,(2)既存の6つの説明手法をビデオデータに適応させること,(3)適応された説明手法の評価と比較を行う。
論文 参考訳(メタデータ) (2024-01-22T09:53:20Z) - Non-Separable Multi-Dimensional Network Flows for Visual Computing [62.50191141358778]
本研究では,非分離型多次元ネットワークフローに対する新しい定式化法を提案する。
フローは次元ごとに定義されるので、最大化フローは自動的に最適な特徴次元を選択する。
概念実証として,マルチオブジェクト追跡問題にフォーマリズムを適用し,ノイズに対するロバスト性の観点からMOT16ベンチマークのスカラー定式化よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-05-15T13:21:44Z) - Learning with Explanation Constraints [91.23736536228485]
我々は、説明がモデルの学習をどのように改善するかを分析するための学習理論フレームワークを提供する。
我々は,多数の合成および実世界の実験に対して,我々のアプローチの利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T15:06:47Z) - What and How of Machine Learning Transparency: Building Bespoke
Explainability Tools with Interoperable Algorithmic Components [77.87794937143511]
本稿では,データ駆動予測モデルを説明するためのハンズオントレーニング教材について紹介する。
これらのリソースは、解釈可能な表現合成、データサンプリング、説明生成の3つのコアビルディングブロックをカバーする。
論文 参考訳(メタデータ) (2022-09-08T13:33:25Z) - Shapelet-Based Counterfactual Explanations for Multivariate Time Series [0.9990687944474738]
我々は,モデル非依存多変量時系列(MTS)の対実的説明アルゴリズムを開発した。
我々は、実生活の太陽フレア予測データセット上で、我々のアプローチを検証し、我々のアプローチが高品質な反事実を生み出すことを証明した。
視覚的に解釈可能であることに加えて、我々の説明は近接性、疎性、そして妥当性の点で優れている。
論文 参考訳(メタデータ) (2022-08-22T17:33:31Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - Interpretable pipelines with evolutionarily optimized modules for RL
tasks with visual inputs [5.254093731341154]
進化的アルゴリズムを用いて協調最適化された複数の解釈可能なモデルからなるエンドツーエンドパイプラインを提案する。
Atariベンチマークの強化学習環境において,本手法を検証した。
論文 参考訳(メタデータ) (2022-02-10T10:33:44Z) - Revisiting Point Cloud Simplification: A Learnable Feature Preserving
Approach [57.67932970472768]
MeshとPoint Cloudの単純化手法は、3Dモデルの複雑さを低減しつつ、視覚的品質と関連する健全な機能を維持することを目的としている。
そこで本研究では,正解点の標本化を学習し,高速点雲の簡易化手法を提案する。
提案手法は、入力空間から任意のユーザ定義の点数を選択し、視覚的知覚誤差を最小限に抑えるために、その位置を再配置するよう訓練されたグラフニューラルネットワークアーキテクチャに依存する。
論文 参考訳(メタデータ) (2021-09-30T10:23:55Z) - Model-agnostic and Scalable Counterfactual Explanations via
Reinforcement Learning [0.5729426778193398]
本稿では,最適化手順をエンドツーエンドの学習プロセスに変換する深層強化学習手法を提案する。
実世界のデータを用いた実験により,本手法はモデルに依存しず,モデル予測からのフィードバックのみに依存することがわかった。
論文 参考訳(メタデータ) (2021-06-04T16:54:36Z) - Closed-Form Factorization of Latent Semantics in GANs [65.42778970898534]
画像合成のために訓練されたGAN(Generative Adversarial Networks)の潜在空間に、解釈可能な次元の豊富なセットが出現することが示されている。
本研究では,GANが学習した内部表現について検討し,その基礎となる変動要因を教師なしで明らかにする。
本稿では,事前学習した重みを直接分解することで,潜在意味発見のためのクローズドフォーム因数分解アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-13T18:05:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。