論文の概要: SelfExplain: A Self-Explaining Architecture for Neural Text Classifiers
- arxiv url: http://arxiv.org/abs/2103.12279v1
- Date: Tue, 23 Mar 2021 03:07:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-24 14:00:19.877279
- Title: SelfExplain: A Self-Explaining Architecture for Neural Text Classifiers
- Title(参考訳): SelfExplain: ニューラルネットワーク分類のための自己説明型アーキテクチャ
- Authors: Dheeraj Rajagopal, Vidhisha Balachandran, Eduard Hovy, Yulia Tsvetkov
- Abstract要約: selfexplain は句に基づく概念を用いてテキスト分類器の予測を説明する新しいフレームワークである。
自己説明は性能を犠牲にすることなく解釈性を促進する。
SelfExplainの説明は、人間の裁判官がより理解しやすく、適切に正当化し、信頼に値するものと認識されている。
- 参考スコア(独自算出の注目度): 17.36827348795714
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce SelfExplain, a novel self-explaining framework that explains a
text classifier's predictions using phrase-based concepts. SelfExplain augments
existing neural classifiers by adding (1) a globally interpretable layer that
identifies the most influential concepts in the training set for a given sample
and (2) a locally interpretable layer that quantifies the contribution of each
local input concept by computing a relevance score relative to the predicted
label. Experiments across five text-classification datasets show that
SelfExplain facilitates interpretability without sacrificing performance. Most
importantly, explanations from SelfExplain are perceived as more
understandable, adequately justifying and trustworthy by human judges compared
to existing widely-used baselines.
- Abstract(参考訳): 我々は,句に基づく概念を用いてテキスト分類器の予測を説明する,新しい自己説明フレームワークであるselfexplainを紹介する。
自己説明は、(1)与えられたサンプルのトレーニングセットにおいて最も影響力のある概念を識別するグローバル解釈可能な層と、(2)予測されたラベルに対する関連性スコアを計算して各局所入力概念の寄与を定量化する局所解釈可能な層を付加することにより、既存の神経分類器を増強する。
5つのテキスト分類データセットの実験から、SelfExplainはパフォーマンスを犠牲にすることなく解釈しやすくしている。
最も重要なのは、自己説明による説明は、既存の広く使われている基準よりも、より理解しやすく、適切に正当化され、信頼できるものと認識されていることである。
関連論文リスト
- Attri-Net: A Globally and Locally Inherently Interpretable Model for Multi-Label Classification Using Class-Specific Counterfactuals [4.384272169863716]
高度な医療応用において、解釈可能性は機械学習アルゴリズムにとって不可欠である。
Attri-Netは、ローカルおよびグローバルな説明を提供するマルチラベル分類の本質的に解釈可能なモデルである。
論文 参考訳(メタデータ) (2024-06-08T13:52:02Z) - Explaining Explainability: Understanding Concept Activation Vectors [35.37586279472797]
最近の解釈可能性法では、概念に基づく説明を用いて、ディープラーニングモデルの内部表現を、人間が慣れ親しんだ言語に翻訳する。
これは、ニューラルネットワークの表現空間にどの概念が存在するかを理解する必要がある。
本研究では,概念活性化ベクトル(Concept Activation Vectors, CAV)の3つの特性について検討する。
本研究では,これらの特性の存在を検出するためのツールを導入し,それらが引き起こした説明にどのように影響するかを把握し,その影響を最小限に抑えるための推奨事項を提供する。
論文 参考訳(メタデータ) (2024-04-04T17:46:20Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - data2vec: A General Framework for Self-supervised Learning in Speech,
Vision and Language [85.9019051663368]
data2vecは、音声、NLP、コンピュータビジョンのいずれかに同じ学習方法を使用するフレームワークである。
中心となる考え方は、自己蒸留装置における入力のマスキングビューに基づいて、完全な入力データの潜在表現を予測することである。
音声認識、画像分類、自然言語理解に関する主要なベンチマークの実験は、新しい技術や競争性能の状態を実証している。
論文 参考訳(メタデータ) (2022-02-07T22:52:11Z) - Explanatory Learning: Beyond Empiricism in Neural Networks [12.622254638367504]
本稿では,記号列に埋もれた既存の知識を機械が活用するためのフレームワークである説明学習を紹介する。
ELでは、プログラム合成で行われているように、記号の解釈の負担は、人間や厳格な人間のコード化されたコンパイラに委ねられません。
我々は、CRNが経験主義的エンド・ツー・エンド・エンド・アプローチの類似したサイズとアーキテクチャよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-01-25T10:21:53Z) - Dynamic Inference with Neural Interpreters [72.90231306252007]
本稿では,モジュールシステムとしての自己アテンションネットワークにおける推論を分解するアーキテクチャであるNeural Interpretersを提案する。
モデルへの入力は、エンドツーエンドの学習方法で一連の関数を通してルーティングされる。
ニューラル・インタープリタは、より少ないパラメータを用いて視覚変換器と同等に動作し、サンプル効率で新しいタスクに転送可能であることを示す。
論文 参考訳(メタデータ) (2021-10-12T23:22:45Z) - This is not the Texture you are looking for! Introducing Novel
Counterfactual Explanations for Non-Experts using Generative Adversarial
Learning [59.17685450892182]
反実用説明システムは、入力画像を変更して反実用推論を可能にする。
本稿では, 対向画像から画像への変換技術に基づく, 対向画像の説明を新たに生成する手法を提案する。
その結果,我々のアプローチは,2つの最先端技術システムよりも,メンタルモデル,説明満足度,信頼度,感情,自己効力に関して有意に優れた結果をもたらすことがわかった。
論文 参考訳(メタデータ) (2020-12-22T10:08:05Z) - Quantifying Learnability and Describability of Visual Concepts Emerging
in Representation Learning [91.58529629419135]
我々は、ディープニューラルネットワークによって自動的に発見された視覚的なグルーピングを特徴付ける方法を検討する。
本稿では、任意の画像グループ化の解釈可能性の定量化に使用できる視覚的学習可能性と記述可能性という2つの概念を紹介する。
論文 参考訳(メタデータ) (2020-10-27T18:41:49Z) - Towards Interpretable Natural Language Understanding with Explanations
as Latent Variables [146.83882632854485]
そこで本研究では,人間に注釈付き説明文の小さなセットだけを必要とする自然言語理解の枠組みを構築した。
我々のフレームワークは、ニューラルネットワークの基本的な推論過程をモデル化する潜在変数として、自然言語の説明を扱う。
論文 参考訳(メタデータ) (2020-10-24T02:05:56Z) - Generating Hierarchical Explanations on Text Classification via Feature
Interaction Detection [21.02924712220406]
特徴的相互作用を検出することによって階層的な説明を構築する。
このような説明は、単語とフレーズが階層の異なるレベルでどのように結合されるかを視覚化する。
実験は、モデルに忠実であり、人間に解釈可能な説明を提供する上で、提案手法の有効性を示す。
論文 参考訳(メタデータ) (2020-04-04T20:56:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。