論文の概要: Variable Instance-Level Explainability for Text Classification
- arxiv url: http://arxiv.org/abs/2104.08219v1
- Date: Fri, 16 Apr 2021 16:53:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-19 16:29:02.929326
- Title: Variable Instance-Level Explainability for Text Classification
- Title(参考訳): テキスト分類のための可変インスタンスレベル説明可能性
- Authors: George Chrysostomou and Nikolaos Aletras
- Abstract要約: 本論文では,インスタンスレベルでの異なる特徴スコアリング手法を用いて変数長説明を抽出する手法を提案する。
本手法は,従来の固定長および固定長のスコアリング手法と比較して,より忠実な説明を提供する。
- 参考スコア(独自算出の注目度): 9.147707153504117
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite the high accuracy of pretrained transformer networks in text
classification, a persisting issue is their significant complexity that makes
them hard to interpret. Recent research has focused on developing feature
scoring methods for identifying which parts of the input are most important for
the model to make a particular prediction and use it as an explanation (i.e.
rationale). A limitation of these approaches is that they assume that a
particular feature scoring method should be used across all instances in a
dataset using a predefined fixed length, which might not be optimal across all
instances. To address this, we propose a method for extracting variable-length
explanations using a set of different feature scoring methods at
instance-level. Our method is inspired by word erasure approaches which assume
that the most faithful rationale for a prediction should be the one with the
highest divergence between the model's output distribution using the full text
and the text after removing the rationale for a particular instance. Evaluation
on four standard text classification datasets shows that our method
consistently provides more faithful explanations compared to previous
fixed-length and fixed-feature scoring methods for rationale extraction.
- Abstract(参考訳): テキスト分類における事前学習されたトランスフォーマーネットワークの精度は高いが、継続する問題は、それらの解釈を困難にする重要な複雑さである。
近年の研究では、モデルが特定の予測を行い、それを説明として使用する(すなわち、入力のどの部分が最も重要なのかを特定する機能スコアリング手法の開発に焦点が当てられている。
理性)。
これらのアプローチの制限は、定義済みの固定長を使用してデータセットのすべてのインスタンスで特定の特徴スコアリングメソッドを使用すべきであると仮定することである。
そこで本研究では,インスタンスレベルで異なる特徴点採点法を用いて,可変長説明を抽出する手法を提案する。
提案手法は, 単語消去手法に着想を得て, 予測の最も忠実な理性は, 特定の事例の理性を取り除いた後に, 完全テキストとテキストを用いて, モデル出力分布の最もばらつきの大きい理性であるべきだと仮定する。
4つの標準テキスト分類データセットの評価結果から,本手法は従来の定長評価法や定長評価法と比較して,一貫して忠実な説明を提供することが示された。
関連論文リスト
- A Fixed-Point Approach to Unified Prompt-Based Counting [51.20608895374113]
本研究の目的は,ボックス,ポイント,テキストなど,さまざまなプロンプト型で示されるオブジェクトの密度マップを生成することができる包括的プロンプトベースのカウントフレームワークを確立することである。
本モデルは,クラスに依存しない顕著なデータセットに優れ,データセット間の適応タスクにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2024-03-15T12:05:44Z) - An Additive Instance-Wise Approach to Multi-class Model Interpretation [53.87578024052922]
解釈可能な機械学習は、ブラックボックスシステムの特定の予測を駆動する要因に関する洞察を提供する。
既存の手法は主に、局所的な加法的あるいはインスタンス的なアプローチに従う説明的入力特徴の選択に重点を置いている。
本研究は,両手法の長所を生かし,複数の対象クラスに対する局所的な説明を同時に学習するためのグローバルフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-07T06:50:27Z) - Interlock-Free Multi-Aspect Rationalization for Text Classification [33.33452117387646]
マルチアスペクト設定におけるインターロック問題に対処することを示す。
自己監督型コントラスト損失を付加した多段階学習手法を提案する。
ビールレビューデータセットにおける実験結果から,本手法は合理化性能を大幅に向上させることが示された。
論文 参考訳(メタデータ) (2022-05-13T16:38:38Z) - Fine-Grained Visual Entailment [51.66881737644983]
そこで本稿では,テキストから画像への微粒な知識要素の論理的関係を予測することを目的として,このタスクの拡張を提案する。
従来の研究とは異なり、本手法は本質的に説明可能であり、異なるレベルの粒度で論理的予測を行う。
本手法は,手動でアノテートした知識要素のデータセットを用いて評価し,この課題に対して68.18%の精度を達成できることを示す。
論文 参考訳(メタデータ) (2022-03-29T16:09:38Z) - More Than Words: Towards Better Quality Interpretations of Text
Classifiers [16.66535643383862]
MLモデルの入力インタフェースを考えると、トークンベースの解釈性は便利な第1選択であるが、あらゆる状況において最も効果的ではないことを示す。
1)ランダム化テストにより測定されるほど頑健であり,2)SHAPのような近似に基づく手法を用いた場合の変動性が低く,3)言語的コヒーレンスがより高い水準にある場合の人間には理解できない。
論文 参考訳(メタデータ) (2021-12-23T10:18:50Z) - SPECTRA: Sparse Structured Text Rationalization [0.0]
本稿では,因子グラフ上の制約付き推論による構造的説明を決定論的に抽出するための統一的な枠組みを提案する。
我々のアプローチは、トレーニングと合理的な正規化を非常に容易にし、概して、可視性抽出の説明に関する以前の研究よりも優れています。
論文 参考訳(メタデータ) (2021-09-09T20:39:56Z) - Toward the Understanding of Deep Text Matching Models for Information
Retrieval [72.72380690535766]
本稿では,既存の深層テキストマッチング手法が情報検索の基本的な勾配を満たすかどうかを検証することを目的とする。
具体的には, 項周波数制約, 項識別制約, 長さ正規化制約, TF長制約の4つの属性を用いる。
LETOR 4.0 と MS Marco の実験結果から,研究対象の深層テキストマッチング手法はすべて,統計学において高い確率で上記の制約を満たすことが示された。
論文 参考訳(メタデータ) (2021-08-16T13:33:15Z) - Search Methods for Sufficient, Socially-Aligned Feature Importance
Explanations with In-Distribution Counterfactuals [72.00815192668193]
特徴重要度(FI)推定は一般的な説明形式であり、テスト時に特定の入力特徴を除去することによって生じるモデル信頼度の変化を計算し、評価することが一般的である。
FIに基づく説明の未探索次元についていくつかの考察を行い、この説明形式に対する概念的および実証的な改善を提供する。
論文 参考訳(メタデータ) (2021-06-01T20:36:48Z) - Distribution Matching for Rationalization [30.54889533406428]
合理化は、入力テキストの一部を論理として抽出し、テキスト分類タスクにおけるニューラルネットワークの予測を正当化することを目的としている。
特徴空間と出力空間の両方における有理と入力テキストの分布に一致する新しい有理化法を提案する。
論文 参考訳(メタデータ) (2021-06-01T08:49:32Z) - An Empirical Comparison of Instance Attribution Methods for NLP [62.63504976810927]
本研究は,トレーニングサンプルの重要性に関して,異なるインスタンス属性が一致した度合いを評価する。
単純な検索メソッドは、グラデーションベースの方法によって識別されたものと異なるトレーニングインスタンスを生成する。
論文 参考訳(メタデータ) (2021-04-09T01:03:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。