論文の概要: MEME: Generating RNN Model Explanations via Model Extraction
- arxiv url: http://arxiv.org/abs/2012.06954v1
- Date: Sun, 13 Dec 2020 04:00:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-09 12:50:19.487894
- Title: MEME: Generating RNN Model Explanations via Model Extraction
- Title(参考訳): MEME:モデル抽出によるRNNモデル記述の生成
- Authors: Dmitry Kazhdan, Botty Dimanov, Mateja Jamnik, Pietro Li\`o
- Abstract要約: MEMEは、人間の理解可能な概念とその相互作用で表される解釈可能なモデルでRNNを近似できるモデル抽出手法である。
解釈可能な概念相互作用を介してRNNの意思決定を近似することにより、MEMEがローカルとグローバルの両方でRNNを解釈する方法を示す。
- 参考スコア(独自算出の注目度): 6.55705721360334
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recurrent Neural Networks (RNNs) have achieved remarkable performance on a
range of tasks. A key step to further empowering RNN-based approaches is
improving their explainability and interpretability. In this work we present
MEME: a model extraction approach capable of approximating RNNs with
interpretable models represented by human-understandable concepts and their
interactions. We demonstrate how MEME can be applied to two multivariate,
continuous data case studies: Room Occupation Prediction, and In-Hospital
Mortality Prediction. Using these case-studies, we show how our extracted
models can be used to interpret RNNs both locally and globally, by
approximating RNN decision-making via interpretable concept interactions.
- Abstract(参考訳): recurrent neural networks(rnn)は、さまざまなタスクで驚くべきパフォーマンスを達成している。
RNNベースのアプローチをさらに強化するための重要なステップは、説明可能性と解釈可能性を改善することだ。
本稿では,人間の理解可能な概念とその相互作用で表される解釈可能なモデルでRNNを近似できるモデル抽出手法MEMEを提案する。
本研究では,部屋占有率予測と病院内死亡率予測という2つの多変量連続データケーススタディに対してmemeをどのように適用できるかを実証する。
これらのケーススタディを用いて、我々の抽出したモデルは、解釈可能な概念相互作用を通じてRNNの意思決定を近似することにより、ローカルとグローバルの両方でRNNを解釈する方法を示す。
関連論文リスト
- DeepCover: Advancing RNN Test Coverage and Online Error Prediction using
State Machine Extraction [0.0]
リカレントニューラルネットワーク(RNN)は、自然言語処理や音声認識など、さまざまな分野でシーケンシャルなデータを処理するための強力なツールとして登場した。
RNNモデルにおける説明可能性の欠如は解釈可能性を制限し、内部動作を理解する上での課題を提起している。
本稿では、RNNモデルから状態マシン(SM)を抽出し、内部機能に関する洞察を提供する手法を提案する。
論文 参考訳(メタデータ) (2024-02-10T14:45:23Z) - Manipulating Feature Visualizations with Gradient Slingshots [54.31109240020007]
本稿では,モデルの決定過程に大きな影響を及ぼすことなく,特徴可視化(FV)を操作する新しい手法を提案する。
ニューラルネットワークモデルにおける本手法の有効性を評価し,任意の選択したニューロンの機能を隠蔽する能力を示す。
論文 参考訳(メタデータ) (2024-01-11T18:57:17Z) - Episodic Memory Theory for the Mechanistic Interpretation of Recurrent
Neural Networks [3.683202928838613]
本稿では,最近提案された一般逐次記憶モデルにおいて,RNNを離散時間アナログとして概念化できるという,エピソード記憶理論(EMT)を提案する。
本稿では,RNNにおける変数結合の振る舞いを探索するアルゴリズムを新たに導入する。
実験により、訓練されたRNNは可変結合回路に一貫して収束し、RNNのダイナミクスの普遍性を示すことが明らかとなった。
論文 参考訳(メタデータ) (2023-10-03T20:52:37Z) - On Neural Networks as Infinite Tree-Structured Probabilistic Graphical Models [44.676210493587256]
本稿では,ニューラルネットワークに対応する無限木構造PGMを構築することにより,革新的な解を提案する。
我々の研究は、DNNが前方伝播中に、この代替のPGM構造において正確であるPGMの近似を実行することを明らかにした。
論文 参考訳(メタデータ) (2023-05-27T21:32:28Z) - Transferability of coVariance Neural Networks and Application to
Interpretable Brain Age Prediction using Anatomical Features [119.45320143101381]
グラフ畳み込みネットワーク(GCN)は、トポロジー駆動のグラフ畳み込み演算を利用して、推論タスクのためにグラフをまたいだ情報を結合する。
我々は、共分散行列をグラフとして、共分散ニューラルネットワーク(VNN)の形でGCNを研究した。
VNNは、GCNからスケールフリーなデータ処理アーキテクチャを継承し、ここでは、共分散行列が極限オブジェクトに収束するデータセットに対して、VNNが性能の転送可能性を示すことを示す。
論文 参考訳(メタデータ) (2023-05-02T22:15:54Z) - Neural Additive Models for Location Scale and Shape: A Framework for
Interpretable Neural Regression Beyond the Mean [1.0923877073891446]
ディープニューラルネットワーク(DNN)は、様々なタスクで非常に効果的であることが証明されている。
この成功にもかかわらず、DNNの内部構造はしばしば透明ではない。
この解釈可能性の欠如は、本質的に解釈可能なニューラルネットワークの研究の増加につながった。
論文 参考訳(メタデータ) (2023-01-27T17:06:13Z) - Batch-Ensemble Stochastic Neural Networks for Out-of-Distribution
Detection [55.028065567756066]
Out-of-Distribution(OOD)検出は、機械学習モデルを現実世界のアプリケーションにデプロイすることの重要性から、マシンラーニングコミュニティから注目を集めている。
本稿では,特徴量の分布をモデル化した不確実な定量化手法を提案する。
バッチアンサンブルニューラルネットワーク(BE-SNN)の構築と機能崩壊問題の克服を目的として,効率的なアンサンブル機構,すなわちバッチアンサンブルを組み込んだ。
We show that BE-SNNs yield superior performance on the Two-Moons dataset, the FashionMNIST vs MNIST dataset, FashionM。
論文 参考訳(メタデータ) (2022-06-26T16:00:22Z) - EINNs: Epidemiologically-Informed Neural Networks [75.34199997857341]
本稿では,疫病予測のための新しい物理インフォームドニューラルネットワークEINNを紹介する。
メカニスティックモデルによって提供される理論的柔軟性と、AIモデルによって提供されるデータ駆動表現性の両方を活用する方法について検討する。
論文 参考訳(メタデータ) (2022-02-21T18:59:03Z) - Now You See Me (CME): Concept-based Model Extraction [24.320487188704146]
ディープニューラルネットワーク(DNN)は、さまざまなタスクにおいて顕著なパフォーマンスを実現している。
DNNベースのアプローチをさらに強化するための重要なステップは、その説明可能性を改善することだ。
CME:概念に基づくモデル抽出フレームワークを提案する。
論文 参考訳(メタデータ) (2020-10-25T22:03:45Z) - Explaining and Improving Model Behavior with k Nearest Neighbor
Representations [107.24850861390196]
モデルの予測に責任のあるトレーニング例を特定するために, k 近傍表現を提案する。
我々は,kNN表現が学習した素因関係を明らかにするのに有効であることを示す。
以上の結果から,kNN手法により,直交モデルが逆入力に対してより堅牢であることが示唆された。
論文 参考訳(メタデータ) (2020-10-18T16:55:25Z) - Interpreting Graph Neural Networks for NLP With Differentiable Edge
Masking [63.49779304362376]
グラフニューラルネットワーク(GNN)は、構造的帰納バイアスをNLPモデルに統合する一般的なアプローチとなっている。
本稿では,不要なエッジを識別するGNNの予測を解釈するポストホック手法を提案する。
モデルの性能を劣化させることなく,多数のエッジを落とせることを示す。
論文 参考訳(メタデータ) (2020-10-01T17:51:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。