論文の概要: Generating Hierarchical Explanations on Text Classification via Feature
Interaction Detection
- arxiv url: http://arxiv.org/abs/2004.02015v3
- Date: Mon, 18 May 2020 02:30:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-16 23:10:58.265870
- Title: Generating Hierarchical Explanations on Text Classification via Feature
Interaction Detection
- Title(参考訳): 特徴対話検出によるテキスト分類における階層的説明の生成
- Authors: Hanjie Chen, Guangtao Zheng, Yangfeng Ji
- Abstract要約: 特徴的相互作用を検出することによって階層的な説明を構築する。
このような説明は、単語とフレーズが階層の異なるレベルでどのように結合されるかを視覚化する。
実験は、モデルに忠実であり、人間に解釈可能な説明を提供する上で、提案手法の有効性を示す。
- 参考スコア(独自算出の注目度): 21.02924712220406
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generating explanations for neural networks has become crucial for their
applications in real-world with respect to reliability and trustworthiness. In
natural language processing, existing methods usually provide important
features which are words or phrases selected from an input text as an
explanation, but ignore the interactions between them. It poses challenges for
humans to interpret an explanation and connect it to model prediction. In this
work, we build hierarchical explanations by detecting feature interactions.
Such explanations visualize how words and phrases are combined at different
levels of the hierarchy, which can help users understand the decision-making of
black-box models. The proposed method is evaluated with three neural text
classifiers (LSTM, CNN, and BERT) on two benchmark datasets, via both automatic
and human evaluations. Experiments show the effectiveness of the proposed
method in providing explanations that are both faithful to models and
interpretable to humans.
- Abstract(参考訳): ニューラルネットワークの説明を生成することは、信頼性と信頼性に関して、実世界のアプリケーションにとって重要になっている。
自然言語処理では、既存の手法は通常、入力テキストから選択された単語やフレーズを説明として持つ重要な特徴を提供するが、それらの相互作用は無視する。
人間が説明を解釈し、それをモデル予測に結びつけることが課題となる。
本研究では,特徴の相互作用を検出することで階層的な説明を行う。
このような説明は、単語とフレーズが階層の異なるレベルでどのように結合されているかを視覚化し、ブラックボックスモデルの意思決定を理解するのに役立つ。
提案手法は,2つのベンチマークデータセット上で,3つのニューラルネットワーク分類器 (LSTM, CNN, BERT) を用いて評価を行う。
実験は、モデルに忠実で人間に解釈可能な説明を提供するための提案手法の有効性を示す。
関連論文リスト
- Faithful and Plausible Natural Language Explanations for Image Classification: A Pipeline Approach [10.54430941755474]
本稿では,CNNに基づく分類システムに適用可能な,ポストホックな自然言語説明法を提案する。
影響力のあるニューロンと対応する活性化マップを分析して、分類器の決定過程の忠実な記述を生成する。
実験の結果,提案手法により構築されたNLEは,より信頼性が高く,忠実であることがわかった。
論文 参考訳(メタデータ) (2024-07-30T15:17:15Z) - Explaining Text Similarity in Transformer Models [52.571158418102584]
説明可能なAIの最近の進歩により、トランスフォーマーの説明の改善を活用することで、制限を緩和できるようになった。
両線形類似性モデルにおける2次説明の計算のために開発された拡張であるBiLRPを用いて、NLPモデルにおいてどの特徴相互作用が類似性を促進するかを調べる。
我々の発見は、異なる意味的類似性タスクやモデルに対するより深い理解に寄与し、新しい説明可能なAIメソッドが、どのようにして深い分析とコーパスレベルの洞察を可能にするかを強調した。
論文 参考訳(メタデータ) (2024-05-10T17:11:31Z) - Explaining Interactions Between Text Spans [50.70253702800355]
入力の異なる部分からのトークンのスパンに対する推論は、自然言語理解に不可欠である。
NLUタスク2つのタスク(NLIとFC)に対する人間間相互作用の説明データセットであるSpanExを紹介する。
次に,複数の微調整された大言語モデルの決定過程を,スパン間の相互接続の観点から検討する。
論文 参考訳(メタデータ) (2023-10-20T13:52:37Z) - Textual Entailment Recognition with Semantic Features from Empirical
Text Representation [60.31047947815282]
テキストが仮説を包含するのは、仮説の真の価値がテキストに従う場合に限る。
本稿では,テキストと仮説のテキストの包含関係を同定する新しい手法を提案する。
本手法では,テキスト・ハイブリッド・ペア間の意味的含意関係を識別できる要素ワイド・マンハッタン距離ベクトルベースの特徴を用いる。
論文 参考訳(メタデータ) (2022-10-18T10:03:51Z) - Saliency Map Verbalization: Comparing Feature Importance Representations
from Model-free and Instruction-based Methods [6.018950511093273]
サージェンシマップは、重要な入力特徴を特定することによって、ニューラルネットワークの予測を説明することができる。
我々は,サリエンシマップを自然言語に翻訳する未調査課題を定式化する。
本研究では,従来の特徴強調表現と比較した2つの新手法(検索ベースおよび命令ベース言語化)を比較した。
論文 参考訳(メタデータ) (2022-10-13T17:48:15Z) - A Unified Understanding of Deep NLP Models for Text Classification [88.35418976241057]
我々は、テキスト分類のためのNLPモデルの統一的な理解を可能にする視覚解析ツールDeepNLPVisを開発した。
主要なアイデアは相互情報に基づく尺度であり、モデルの各レイヤがサンプル内の入力語の情報をどのように保持するかを定量的に説明する。
コーパスレベル、サンプルレベル、単語レベルビジュアライゼーションで構成されるマルチレベルビジュアライゼーションは、全体トレーニングセットから個々のサンプルまでの分析をサポートする。
論文 参考訳(メタデータ) (2022-06-19T08:55:07Z) - Hierarchical Interpretation of Neural Text Classification [31.95426448656938]
本稿では,Hintと呼ばれる階層型インタプリタ型ニューラルテキスト分類器を提案する。
レビューデータセットとニュースデータセットの両方の実験結果から,提案手法は既存の最先端テキスト分類器と同等のテキスト分類結果が得られることが示された。
論文 参考訳(メタデータ) (2022-02-20T11:15:03Z) - Explaining Neural Network Predictions on Sentence Pairs via Learning
Word-Group Masks [21.16662651409811]
入力テキストペアから相関語をグループ化して単語相関を暗黙的に検出するグループマスク(GMASK)手法を提案する。
提案手法は4つのデータセットにまたがる2つの異なるモデルアーキテクチャ (decomposable attention model と bert) を用いて評価した。
論文 参考訳(メタデータ) (2021-04-09T17:14:34Z) - Contrastive Explanations for Model Interpretability [77.92370750072831]
分類モデルの対照的説明を生成する手法を提案する。
本手法は潜在空間へのモデル表現の投影に基づいている。
本研究は,モデル決定のより正確できめ細かな解釈性を提供するためのラベルコントラスト的説明の能力に光を当てた。
論文 参考訳(メタデータ) (2021-03-02T00:36:45Z) - ALICE: Active Learning with Contrastive Natural Language Explanations [69.03658685761538]
本研究では,学習におけるデータ効率を向上させるために,AlICEを用いたアクティブラーニングを提案する。
ALICEは、まずアクティブラーニングを使用して、最も情報に富んだラベルクラスを選択し、対照的な自然言語の説明を引き出す。
意味的に抽出された知識を用いて、これらの説明から知識を抽出する。
論文 参考訳(メタデータ) (2020-09-22T01:02:07Z) - LIMEtree: Interactively Customisable Explanations Based on Local
Surrogate Multi-output Regression Trees [21.58324172085553]
LIMEtree と呼ばれるブラックボックス予測のためのモデル非依存的かつポストホックな局所的説明可能性手法を提案する。
画像中の物体検出を訓練したディープニューラルネットワーク上でアルゴリズムを検証し,LIME(Local Interpretable Model-Agnostic Explanations)と比較する。
本手法は局所的忠実度保証を伴い,多種多様な説明型を生成する。
論文 参考訳(メタデータ) (2020-05-04T12:31:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。