論文の概要: DeepSeer: Interactive RNN Explanation and Debugging via State
Abstraction
- arxiv url: http://arxiv.org/abs/2303.01576v1
- Date: Thu, 2 Mar 2023 21:08:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-06 16:55:55.865419
- Title: DeepSeer: Interactive RNN Explanation and Debugging via State
Abstraction
- Title(参考訳): DeepSeer: インタラクティブなRNN説明と状態抽象化によるデバッグ
- Authors: Zhijie Wang, Yuheng Huang, Da Song, Lei Ma, Tianyi Zhang
- Abstract要約: リカレントニューラルネットワーク(RNN)は自然言語処理(NLP)タスクで広く使われている。
DeepSeerは、RNNの振る舞いのグローバルとローカルの両方の説明を提供するインタラクティブシステムである。
- 参考スコア(独自算出の注目度): 10.110976560799612
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recurrent Neural Networks (RNNs) have been widely used in Natural Language
Processing (NLP) tasks given its superior performance on processing sequential
data. However, it is challenging to interpret and debug RNNs due to the
inherent complexity and the lack of transparency of RNNs. While many
explainable AI (XAI) techniques have been proposed for RNNs, most of them only
support local explanations rather than global explanations. In this paper, we
present DeepSeer, an interactive system that provides both global and local
explanations of RNN behavior in multiple tightly-coordinated views for model
understanding and debugging. The core of DeepSeer is a state abstraction method
that bundles semantically similar hidden states in an RNN model and abstracts
the model as a finite state machine. Users can explore the global model
behavior by inspecting text patterns associated with each state and the
transitions between states. Users can also dive into individual predictions by
inspecting the state trace and intermediate prediction results of a given
input. A between-subjects user study with 28 participants shows that, compared
with a popular XAI technique, LIME, participants using DeepSeer made a deeper
and more comprehensive assessment of RNN model behavior, identified the root
causes of incorrect predictions more accurately, and came up with more
actionable plans to improve the model performance.
- Abstract(参考訳): リカレントニューラルネットワーク (Recurrent Neural Networks, RNN) は、逐次データ処理において優れた性能を持つ自然言語処理 (NLP) タスクで広く利用されている。
しかし、RNNの複雑さと透明性の欠如のため、RNNの解釈とデバッグは困難である。
RNNには多くの説明可能なAI(XAI)技術が提案されているが、その多くはグローバルな説明ではなく、ローカルな説明のみをサポートしている。
本稿では,対話型システムDeepSeerについて述べる。モデル理解とデバッギングのための複数の密集したビューにおいて,RNNの挙動をグローバルかつ局所的に説明する。
DeepSeerのコアは、RNNモデルに意味的に類似した隠された状態をバンドルし、モデルを有限状態マシンとして抽象化する状態抽象化メソッドである。
ユーザは、各状態と状態間の遷移に関連するテキストパターンを検査することで、グローバルモデルの振る舞いを調べることができる。
ユーザは、与えられた入力の状態トレースと中間予測結果を検査することで、個々の予測を掘り下げることもできる。
28人の被験者による調査の結果、人気のあるXAI技術であるLIMEと比較して、DeepSeerを用いた参加者は、RNNモデルの振る舞いをより深く、より包括的な評価を行い、誤った予測の根本原因をより正確に特定し、モデル性能を改善するための実行可能な計画を立てた。
関連論文リスト
- Use of Parallel Explanatory Models to Enhance Transparency of Neural Network Configurations for Cell Degradation Detection [18.214293024118145]
我々は,ニューラルネットワークの内部動作を照らし,理解するための並列モデルを構築している。
RNNの各層が入力分布を変換して検出精度を高める方法を示す。
同時に、精度の向上を制限するために作用する副作用も発見する。
論文 参考訳(メタデータ) (2024-04-17T12:22:54Z) - Towards Better Explanations for Object Detection [0.0]
本稿では,D-CLOSEと呼ばれるオブジェクト検出モデルについて,その決定を説明する手法を提案する。
我々は,YOLOXモデルを用いてMS-COCOデータセットの試験を行い,本手法がD-RISEより優れていることを示す。
論文 参考訳(メタデータ) (2023-06-05T09:52:05Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Batch-Ensemble Stochastic Neural Networks for Out-of-Distribution
Detection [55.028065567756066]
Out-of-Distribution(OOD)検出は、機械学習モデルを現実世界のアプリケーションにデプロイすることの重要性から、マシンラーニングコミュニティから注目を集めている。
本稿では,特徴量の分布をモデル化した不確実な定量化手法を提案する。
バッチアンサンブルニューラルネットワーク(BE-SNN)の構築と機能崩壊問題の克服を目的として,効率的なアンサンブル機構,すなわちバッチアンサンブルを組み込んだ。
We show that BE-SNNs yield superior performance on the Two-Moons dataset, the FashionMNIST vs MNIST dataset, FashionM。
論文 参考訳(メタデータ) (2022-06-26T16:00:22Z) - Deep Architecture Connectivity Matters for Its Convergence: A
Fine-Grained Analysis [94.64007376939735]
我々は、勾配降下訓練におけるディープニューラルネットワーク(DNN)の収束に対する接続パターンの影響を理論的に特徴づける。
接続パターンの単純なフィルタリングによって、評価対象のモデルの数を削減できることが示される。
論文 参考訳(メタデータ) (2022-05-11T17:43:54Z) - Extracting Finite Automata from RNNs Using State Merging [1.8072051868187933]
文法的推論から状態マージパラダイムに着想を得たRNNから有限オートマトンを抽出する手法を提案する。
提案手法の有効性をTomita言語ベンチマークで検証したところ,ベンチマーク中のすべての言語でトレーニングされたRNNから忠実なオートマトンを抽出できることが確認された。
論文 参考訳(メタデータ) (2022-01-28T23:03:25Z) - Self-Ensembling GAN for Cross-Domain Semantic Segmentation [107.27377745720243]
本稿では,セマンティックセグメンテーションのためのクロスドメインデータを利用した自己理解型生成逆数ネットワーク(SE-GAN)を提案する。
SE-GANでは、教師ネットワークと学生ネットワークは、意味分節マップを生成するための自己組織化モデルを構成する。
その単純さにもかかわらず、SE-GANは敵の訓練性能を大幅に向上させ、モデルの安定性を高めることができる。
論文 参考訳(メタデータ) (2021-12-15T09:50:25Z) - i-Algebra: Towards Interactive Interpretability of Deep Neural Networks [41.13047686374529]
i-Algebraはディープニューラルネットワーク(DNN)を解釈するための対話型フレームワークである。
その中核は原子、構成可能な演算子のライブラリであり、さまざまな入力粒度、異なる推論段階、および異なる解釈の視点からモデル挙動を説明する。
我々は,敵入力の検査,モデル不整合の解消,汚染データのクリーン化など,一連の代表的分析タスクでユーザ研究を行い,その有望なユーザビリティを示す。
論文 参考訳(メタデータ) (2021-01-22T19:22:57Z) - Explaining and Improving Model Behavior with k Nearest Neighbor
Representations [107.24850861390196]
モデルの予測に責任のあるトレーニング例を特定するために, k 近傍表現を提案する。
我々は,kNN表現が学習した素因関係を明らかにするのに有効であることを示す。
以上の結果から,kNN手法により,直交モデルが逆入力に対してより堅牢であることが示唆された。
論文 参考訳(メタデータ) (2020-10-18T16:55:25Z) - Interpreting Graph Neural Networks for NLP With Differentiable Edge
Masking [63.49779304362376]
グラフニューラルネットワーク(GNN)は、構造的帰納バイアスをNLPモデルに統合する一般的なアプローチとなっている。
本稿では,不要なエッジを識別するGNNの予測を解釈するポストホック手法を提案する。
モデルの性能を劣化させることなく,多数のエッジを落とせることを示す。
論文 参考訳(メタデータ) (2020-10-01T17:51:19Z) - An Adversarial Approach for Explaining the Predictions of Deep Neural
Networks [9.645196221785694]
本稿では,敵対的機械学習を用いて,ディープニューラルネットワーク(DNN)の予測を説明する新しいアルゴリズムを提案する。
提案手法は,DNNに対する敵攻撃の挙動に基づいて,入力特徴の相対的重要性を推定する。
分析により、一貫性のある効率的な説明が得られます。
論文 参考訳(メタデータ) (2020-05-20T18:06:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。