論文の概要: Tell Model Where to Attend: Improving Interpretability of Aspect-Based
Sentiment Classification via Small Explanation Annotations
- arxiv url: http://arxiv.org/abs/2302.10479v1
- Date: Tue, 21 Feb 2023 06:55:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-22 16:05:40.836765
- Title: Tell Model Where to Attend: Improving Interpretability of Aspect-Based
Sentiment Classification via Small Explanation Annotations
- Title(参考訳): 注意すべき場所:小説明アノテーションによるアスペクトベース感性分類の解釈可能性の向上
- Authors: Zhenxiao Cheng, Jie Zhou, Wen Wu, Qin Chen, Liang He
- Abstract要約: 我々はtextbfInterpretation-textbfEnhanced textbfGradient-based framework for textbfABSC を提案する。
我々のモデルは、既存のABSCメソッドや他のタスクに統合できるように、モデル非依存およびタスク非依存である。
- 参考スコア(独自算出の注目度): 23.05672636220897
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Gradient-based explanation methods play an important role in the field of
interpreting complex deep neural networks for NLP models. However, the existing
work has shown that the gradients of a model are unstable and easily
manipulable, which impacts the model's reliability largely. According to our
preliminary analyses, we also find the interpretability of gradient-based
methods is limited for complex tasks, such as aspect-based sentiment
classification (ABSC). In this paper, we propose an
\textbf{I}nterpretation-\textbf{E}nhanced \textbf{G}radient-based framework for
\textbf{A}BSC via a small number of explanation annotations, namely
\texttt{{IEGA}}. Particularly, we first calculate the word-level saliency map
based on gradients to measure the importance of the words in the sentence
towards the given aspect. Then, we design a gradient correction module to
enhance the model's attention on the correct parts (e.g., opinion words). Our
model is model agnostic and task agnostic so that it can be integrated into the
existing ABSC methods or other tasks. Comprehensive experimental results on
four benchmark datasets show that our \texttt{IEGA} can improve not only the
interpretability of the model but also the performance and robustness.
- Abstract(参考訳): 勾配に基づく説明法は、NLPモデルに対する複雑なディープニューラルネットワークの解釈において重要な役割を果たす。
しかし、既存の研究では、モデルの勾配が不安定で容易に操作可能であることが示されており、モデルの信頼性に大きな影響を与えている。
予備分析の結果,アスペクトベース感情分類(ABSC)のような複雑なタスクでは,勾配に基づく手法の解釈可能性に制限があることがわかった。
本稿では,少数の説明アノテーション,すなわち \texttt{{IEGA}} を通じて, \textbf{I}nterpretation-\textbf{E}nhanced \textbf{G}radient-based framework for \textbf{A}BSCを提案する。
特に,文中の単語の重要度を与えられたアスペクトに対して測定するために,勾配に基づく単語レベルのサリエンシマップをまず計算する。
そして,モデルが正しい部分(意見語など)に注意を向けるように,勾配補正モジュールを設計する。
我々のモデルは、既存のABSCメソッドや他のタスクに統合できるように、モデル非依存およびタスク非依存である。
4つのベンチマークデータセットの包括的な実験結果から、我々の \texttt{iega} はモデルの解釈性だけでなく、パフォーマンスとロバスト性も改善できることがわかった。
関連論文リスト
- A Plug-and-Play Method for Rare Human-Object Interactions Detection by Bridging Domain Gap [50.079224604394]
textbfContext-textbfEnhanced textbfFeature textbfAment (CEFA) と呼ばれる新しいモデルに依存しないフレームワークを提案する。
CEFAは機能アライメントモジュールとコンテキスト拡張モジュールで構成される。
本手法は, 稀なカテゴリにおけるHOIモデルの検出性能を向上させるために, プラグアンドプレイモジュールとして機能する。
論文 参考訳(メタデータ) (2024-07-31T08:42:48Z) - Structure Your Data: Towards Semantic Graph Counterfactuals [1.8817715864806608]
概念に基づく対実的説明(CE)は、モデル予測にどの高レベルな意味的特徴が寄与するかを理解するための代替シナリオを考える説明である。
本研究では,入力データに付随する意味グラフに基づくCEを提案する。
論文 参考訳(メタデータ) (2024-03-11T08:40:37Z) - Learning Intrinsic Dimension via Information Bottleneck for Explainable
Aspect-based Sentiment Analysis [30.16902652669842]
Aspect-based Sentiment Analysis (ABSA) のためのInformation Bottleneck-based Gradient (texttIBG) の説明フレームワークを提案する。
我々のフレームワークは,単語の埋め込みを簡潔な内在次元に洗練し,本質的な特徴を維持し,無関係な情報を省略する。
感傷的特徴を識別することで、モデルの性能と解釈可能性の両方を大幅に改善する。
論文 参考訳(メタデータ) (2024-02-28T08:11:05Z) - Generalizing Backpropagation for Gradient-Based Interpretability [103.2998254573497]
モデルの勾配は、半環を用いたより一般的な定式化の特別な場合であることを示す。
この観測により、バックプロパゲーションアルゴリズムを一般化し、他の解釈可能な統計を効率的に計算することができる。
論文 参考訳(メタデータ) (2023-07-06T15:19:53Z) - A Unified Understanding of Deep NLP Models for Text Classification [88.35418976241057]
我々は、テキスト分類のためのNLPモデルの統一的な理解を可能にする視覚解析ツールDeepNLPVisを開発した。
主要なアイデアは相互情報に基づく尺度であり、モデルの各レイヤがサンプル内の入力語の情報をどのように保持するかを定量的に説明する。
コーパスレベル、サンプルレベル、単語レベルビジュアライゼーションで構成されるマルチレベルビジュアライゼーションは、全体トレーニングセットから個々のサンプルまでの分析をサポートする。
論文 参考訳(メタデータ) (2022-06-19T08:55:07Z) - Locally Aggregated Feature Attribution on Natural Language Model
Understanding [12.233103741197334]
Locally Aggregated Feature Attribution (LAFA) は、NLPモデルのための新しい勾配に基づく特徴属性法である。
あいまいな参照トークンに頼る代わりに、言語モデル埋め込みから派生した類似参照テキストを集約することで勾配を円滑にする。
評価のために、公開データセット上でのエンティティ認識やセンチメント分析を含む異なるNLPタスクの実験も設計する。
論文 参考訳(メタデータ) (2022-04-22T18:59:27Z) - Convex Polytope Modelling for Unsupervised Derivation of Semantic
Structure for Data-efficient Natural Language Understanding [31.888489552069146]
Convex-Polytopic-Modelベースのフレームワークは、生のダイアログコーパスを利用して意味パターンを自動的に抽出する大きな可能性を示している。
このフレームワークは,コーパスのセマンティックフレーム関連機能を活用し,発話の基盤となるセマンティック構造を明らかにし,最小限の監視で最先端のNLUモデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2022-01-25T19:12:44Z) - Bayesian Graph Contrastive Learning [55.36652660268726]
本稿では,ランダムな拡張がエンコーダにつながることを示すグラフコントラスト学習手法の新たな視点を提案する。
提案手法は,各ノードを決定論的ベクトルに埋め込む既存の手法とは対照的に,各ノードを潜在空間の分布で表現する。
いくつかのベンチマークデータセットにおける既存の最先端手法と比較して,性能が大幅に向上したことを示す。
論文 参考訳(メタデータ) (2021-12-15T01:45:32Z) - Improving Aspect-based Sentiment Analysis with Gated Graph Convolutional
Networks and Syntax-based Regulation [89.38054401427173]
Aspect-based Sentiment Analysis (ABSA) は、特定の側面に向けて文の感情極性を予測する。
依存関係ツリーは、ABSAの最先端のパフォーマンスを生成するために、ディープラーニングモデルに統合することができる。
本稿では,この2つの課題を克服するために,グラフに基づく新しいディープラーニングモデルを提案する。
論文 参考訳(メタデータ) (2020-10-26T07:36:24Z) - Explaining and Improving Model Behavior with k Nearest Neighbor
Representations [107.24850861390196]
モデルの予測に責任のあるトレーニング例を特定するために, k 近傍表現を提案する。
我々は,kNN表現が学習した素因関係を明らかにするのに有効であることを示す。
以上の結果から,kNN手法により,直交モデルが逆入力に対してより堅牢であることが示唆された。
論文 参考訳(メタデータ) (2020-10-18T16:55:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。