論文の概要: Explain by Evidence: An Explainable Memory-based Neural Network for
Question Answering
- arxiv url: http://arxiv.org/abs/2011.03096v1
- Date: Thu, 5 Nov 2020 21:18:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-29 11:21:39.813913
- Title: Explain by Evidence: An Explainable Memory-based Neural Network for
Question Answering
- Title(参考訳): 証拠による説明: 質問応答のためのメモリベースニューラルネットワーク
- Authors: Quan Tran, Nhan Dam, Tuan Lai, Franck Dernoncourt, Trung Le, Nham Le
and Dinh Phung
- Abstract要約: 本稿では,エビデンスに基づくメモリネットワークアーキテクチャを提案する。
データセットを要約し、その決定を下すための証拠を抽出することを学ぶ。
本モデルは,2つの質問応答データセットの最先端性能を実現する。
- 参考スコア(独自算出の注目度): 41.73026155036886
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Interpretability and explainability of deep neural networks are challenging
due to their scale, complexity, and the agreeable notions on which the
explaining process rests. Previous work, in particular, has focused on
representing internal components of neural networks through human-friendly
visuals and concepts. On the other hand, in real life, when making a decision,
human tends to rely on similar situations and/or associations in the past.
Hence arguably, a promising approach to make the model transparent is to design
it in a way such that the model explicitly connects the current sample with the
seen ones, and bases its decision on these samples. Grounded on that principle,
we propose in this paper an explainable, evidence-based memory network
architecture, which learns to summarize the dataset and extract supporting
evidences to make its decision. Our model achieves state-of-the-art performance
on two popular question answering datasets (i.e. TrecQA and WikiQA). Via
further analysis, we show that this model can reliably trace the errors it has
made in the validation step to the training instances that might have caused
these errors. We believe that this error-tracing capability provides
significant benefit in improving dataset quality in many applications.
- Abstract(参考訳): ディープニューラルネットワークの解釈可能性と説明性は、その規模、複雑さ、そして説明プロセスが残留する相応しい概念のために困難である。
特に以前の研究は、人間にやさしい視覚と概念を通して、ニューラルネットワークの内部コンポーネントを表現することに重点を置いてきた。
一方、実生活では、意思決定をする際、人間は過去に類似した状況や関連に頼りがちである。
したがって、モデルを透明にするための有望なアプローチは、モデルが現在のサンプルと見ているサンプルを明示的に接続し、これらのサンプルに基づいて決定を下すように設計することである。
この原理に基づいて,本論文では,データセットを要約し,証拠を抽出して決定する,説明可能なエビデンスベースのメモリネットワークアーキテクチャを提案する。
本稿では,2つの質問応答データセット(TrecQAとWikiQA)の最先端性能を実現する。
さらなる分析を通じて、このモデルが検証ステップで犯したエラーを、これらのエラーを引き起こした可能性のあるトレーニングインスタンスに確実にトレースできることを示す。
このエラー追跡機能は、多くのアプリケーションのデータセット品質を改善する上で大きなメリットがあると考えています。
関連論文リスト
- NeuroInspect: Interpretable Neuron-based Debugging Framework through
Class-conditional Visualizations [28.552283701883766]
本稿では,ディープラーニング(DL)モデルのための解釈可能なニューロンベースのデバッグフレームワークであるNeuroInspectを紹介する。
我々のフレームワークはまず、ネットワークのミスの原因となるニューロンをピンポイントし、次に人間の解釈可能なニューロンに埋め込まれた特徴を視覚化する。
現実の環境では最悪の性能のクラスに対して,誤相関に対処し,推論を改善することで,我々のフレームワークを検証する。
論文 参考訳(メタデータ) (2023-10-11T04:20:32Z) - Attributing Learned Concepts in Neural Networks to Training Data [5.930268338525991]
コンバージェンス(収束)の証拠として,概念の上位1万個の画像を取り除き,モデルの再トレーニングを行うと,ネットワーク内の概念の位置が変化しない。
このことは、概念の発達を知らせる特徴が、概念形成の堅牢さを暗示して、その先例にまたがるより拡散した方法で広がることを示唆している。
論文 参考訳(メタデータ) (2023-10-04T20:26:59Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - CONVIQT: Contrastive Video Quality Estimator [63.749184706461826]
知覚ビデオ品質評価(VQA)は、多くのストリーミングおよびビデオ共有プラットフォームにおいて不可欠な要素である。
本稿では,視覚的に関連のある映像品質表現を自己指導的に学習する問題について考察する。
本研究は, 自己教師型学習を用いて, 知覚力による説得力のある表現が得られることを示す。
論文 参考訳(メタデータ) (2022-06-29T15:22:01Z) - LAP: An Attention-Based Module for Concept Based Self-Interpretation and
Knowledge Injection in Convolutional Neural Networks [2.8948274245812327]
本稿では,自己解釈性を実現するため,新しい注意型プール層であるLAP(Local Attention Pooling)を提案する。
LAPはどんな畳み込みニューラルネットワークにも簡単にプラグインできる。
LAPは一般的なホワイトボックスの説明法よりも、人間の理解しやすく忠実なモデル解釈を提供する。
論文 参考訳(メタデータ) (2022-01-27T21:10:20Z) - Explainable Adversarial Attacks in Deep Neural Networks Using Activation
Profiles [69.9674326582747]
本稿では,敵対的事例に基づくニューラルネットワークモデルを検討するためのビジュアルフレームワークを提案する。
これらの要素を観察することで、モデル内の悪用領域を素早く特定できることを示す。
論文 参考訳(メタデータ) (2021-03-18T13:04:21Z) - Structural Causal Models Are (Solvable by) Credal Networks [70.45873402967297]
因果推論は、干潟網の更新のための標準的なアルゴリズムによって得ることができる。
この貢献は, 干潟ネットワークによる構造因果モデルを表現するための体系的なアプローチと見なされるべきである。
実験により, 実規模問題における因果推論には, クレーダルネットワークの近似アルゴリズムがすぐに利用できることがわかった。
論文 参考訳(メタデータ) (2020-08-02T11:19:36Z) - Learning What Makes a Difference from Counterfactual Examples and
Gradient Supervision [57.14468881854616]
ニューラルネットワークの一般化能力を改善するための補助的学習目標を提案する。
我々は、異なるラベルを持つ最小差の例のペア、すなわち反ファクトまたはコントラストの例を使用し、タスクの根底にある因果構造を示す信号を与える。
このテクニックで訓練されたモデルは、配布外テストセットのパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2020-04-20T02:47:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。