論文の概要: Distilling neural networks into skipgram-level decision lists
- arxiv url: http://arxiv.org/abs/2005.07111v2
- Date: Mon, 18 May 2020 08:43:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-03 04:13:19.184095
- Title: Distilling neural networks into skipgram-level decision lists
- Title(参考訳): ニューラルネットワークをスキップグラムレベル決定リストに蒸留する
- Authors: Madhumita Sushil and Simon \v{S}uster and Walter Daelemans
- Abstract要約: スキップグラム上の決定リスト(ルールとも呼ばれる)を用いてRNNを説明するパイプラインを提案する。
提案手法は,高い説明忠実度と定性的に解釈可能な規則を持続的に達成することを発見した。
- 参考スコア(独自算出の注目度): 4.109840601429086
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Several previous studies on explanation for recurrent neural networks focus
on approaches that find the most important input segments for a network as its
explanations. In that case, the manner in which these input segments combine
with each other to form an explanatory pattern remains unknown. To overcome
this, some previous work tries to find patterns (called rules) in the data that
explain neural outputs. However, their explanations are often insensitive to
model parameters, which limits the scalability of text explanations. To
overcome these limitations, we propose a pipeline to explain RNNs by means of
decision lists (also called rules) over skipgrams. For evaluation of
explanations, we create a synthetic sepsis-identification dataset, as well as
apply our technique on additional clinical and sentiment analysis datasets. We
find that our technique persistently achieves high explanation fidelity and
qualitatively interpretable rules.
- Abstract(参考訳): リカレントニューラルネットワークの説明に関するいくつかの以前の研究は、ネットワークの最も重要な入力セグメントをその説明として見つけるアプローチに焦点を当てている。
この場合、これらの入力セグメントが互いに結合して説明パターンを形成する方法はまだ不明である。
これを解決するために、いくつかの以前の研究は、ニューラルアウトプットを説明するデータの中にパターン(ルールと呼ばれる)を見つけようとする。
しかし、それらの説明は、しばしばモデルパラメータに敏感であり、テキスト説明のスケーラビリティを制限する。
これらの制限を克服するために、スキップグラム上の決定リスト(ルールとも呼ばれる)を用いてRNNを説明するパイプラインを提案する。
説明を評価するために, 合成敗血症同定データセットを作成し, 追加臨床および感情分析データセットに適用する。
提案手法は,高い説明精度と定性的に解釈可能な規則を持続的に達成する。
関連論文リスト
- Recurrent Neural Networks Learn to Store and Generate Sequences using Non-Linear Representations [54.17275171325324]
線形表現仮説(LRH)に対する反例を提示する。
入力トークンシーケンスを繰り返すように訓練されると、ニューラルネットワークは、方向ではなく、特定の順序で各位置のトークンを表現することを学ぶ。
これらの結果は、解釈可能性の研究はLRHに限定されるべきでないことを強く示唆している。
論文 参考訳(メタデータ) (2024-08-20T15:04:37Z) - Relational Composition in Neural Networks: A Survey and Call to Action [54.47858085003077]
多くのニューラルネットは、データを「機能ベクトル」の線形結合として表現しているように見える。
我々は、この成功は関係性の構成を理解せずに不完全であると主張する。
論文 参考訳(メタデータ) (2024-07-19T20:50:57Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - NeuroExplainer: Fine-Grained Attention Decoding to Uncover Cortical
Development Patterns of Preterm Infants [73.85768093666582]
我々はNeuroExplainerと呼ばれる説明可能な幾何学的深層ネットワークを提案する。
NeuroExplainerは、早産に伴う幼児の皮質発達パターンの解明に使用される。
論文 参考訳(メタデータ) (2023-01-01T12:48:12Z) - Robust Explanation Constraints for Neural Networks [33.14373978947437]
ニューラルネットワークの意図で使われるポストホックな説明法は、しばしば彼らの出力を信頼するのに役立つと言われている。
我々のトレーニング方法は、ニューラルネットワークを学習できる唯一の方法であり、6つのテストネットワークでテストされた堅牢性に関する洞察を持つ。
論文 参考訳(メタデータ) (2022-12-16T14:40:25Z) - Interpretable Fault Diagnosis of Rolling Element Bearings with Temporal
Logic Neural Network [11.830457329372283]
本稿では、時間論理ニューラルネットワーク(TLNN)と呼ばれる新しいニューラルネットワーク構造を提案する。
TLNNは、従来のニューロンネットワークの優れた特性を保ちながら、形式言語で自身を形式的に解釈する。
論文 参考訳(メタデータ) (2022-04-15T11:54:30Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Combining Sub-Symbolic and Symbolic Methods for Explainability [1.3777144060953146]
GNN意思決定プロセスに関する洞察を提供するために、いくつかのサブシンボリックアプローチが開発されている。
これらは、可能性を説明するための最初の重要なステップですが、生成された説明は、AIの専門家でないユーザにとって理解しがたいものです。
サブシンボリックな手法とシンボリックな手法を組み合わせた概念的アプローチを人間中心の説明に導入する。
論文 参考訳(メタデータ) (2021-12-03T10:57:00Z) - A Peek Into the Reasoning of Neural Networks: Interpreting with
Structural Visual Concepts [38.215184251799194]
直感的な構造的視覚概念で分類NNを解釈するフレームワーク(VRX)を提案する。
ナレッジ蒸留によって、VRXはNNの推論プロセスを模倣する一歩を踏み出すことができることを示す。
論文 参考訳(メタデータ) (2021-05-01T15:47:42Z) - Developing Constrained Neural Units Over Time [81.19349325749037]
本稿では,既存のアプローチと異なるニューラルネットワークの定義方法に焦点をあてる。
ニューラルネットワークの構造は、データとの相互作用にも拡張される制約の特別なクラスによって定義される。
提案した理論は時間領域にキャストされ, データを順序づけられた方法でネットワークに提示する。
論文 参考訳(メタデータ) (2020-09-01T09:07:25Z) - Explaining Away Attacks Against Neural Networks [3.658164271285286]
画像ベースニューラルネットワークに対する敵攻撃を識別する問題について検討する。
そこで本研究では, クリーンデータと逆データに対するモデル予測における説明の相違について検討した。
本稿では,モデルによる説明に基づいて,与えられた入力が逆方向かどうかを識別できるフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-06T15:32:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。