論文の概要: Staying True to Your Word: (How) Can Attention Become Explanation?
- arxiv url: http://arxiv.org/abs/2005.09379v1
- Date: Tue, 19 May 2020 11:55:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-01 13:58:07.978914
- Title: Staying True to Your Word: (How) Can Attention Become Explanation?
- Title(参考訳): 言葉に真実を語る:(なぜ)注意は説明できるのか?
- Authors: Martin Tutek, Jan \v{S}najder
- Abstract要約: シーケンス分類タスクにおいて、繰り返しネットワークを使用する場合、注意が適切な批判を見る理由について説明する。
本稿では,これらの問題に対して,単語レベルの客観的な対処法を提案する。
- 参考スコア(独自算出の注目度): 0.17767466724342063
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The attention mechanism has quickly become ubiquitous in NLP. In addition to
improving performance of models, attention has been widely used as a glimpse
into the inner workings of NLP models. The latter aspect has in the recent
years become a common topic of discussion, most notably in work of Jain and
Wallace, 2019; Wiegreffe and Pinter, 2019. With the shortcomings of using
attention weights as a tool of transparency revealed, the attention mechanism
has been stuck in a limbo without concrete proof when and whether it can be
used as an explanation. In this paper, we provide an explanation as to why
attention has seen rightful critique when used with recurrent networks in
sequence classification tasks. We propose a remedy to these issues in the form
of a word level objective and our findings give credibility for attention to
provide faithful interpretations of recurrent models.
- Abstract(参考訳): 注意機構はNLPにおいて急速に普及している。
モデルの性能向上に加えて,NLPモデルの内部動作を垣間見るために注目が集まっている。
後者の側面は近年、ジャイナとウォレスの2019年、ウィグリーフとパターの2019年の業績など、一般的な議論のトピックとなっている。
透明化ツールとしての注意重みの使用の欠点が明らかになったため、注意機構は具体的証拠がなく、説明として利用できるかどうかが証明されていない。
本稿では,シーケンス分類タスクにおいて再帰ネットワークを用いた場合,なぜ注意が正しい批判を受けたのかを説明する。
そこで本研究では, 単語レベルの目標として, この問題に対する対処法を提案するとともに, 再帰モデルの忠実な解釈を提供するために, 注意を喚起する信頼度を与える。
関連論文リスト
- Attention Meets Post-hoc Interpretability: A Mathematical Perspective [6.492879435794228]
簡単な注意に基づくアーキテクチャを数学的に研究し、ポストホックとアテンションに基づく説明の違いを指摘する。
それらとは全く異なる結果が得られており、その制限にもかかわらず、ポストホック法は単に注意重みを調べるだけでなく、より有用な洞察を捉えることができることを示した。
論文 参考訳(メタデータ) (2024-02-05T19:56:56Z) - Guiding Visual Question Answering with Attention Priors [76.21671164766073]
本稿では,言語・視覚的接地による注意機構の導出について述べる。
この基礎は、クエリ内の構造化言語概念を視覚オブジェクト間の参照物に接続することで導かれる。
このアルゴリズムは、注意に基づく推論モデルを調べ、関連する連想的知識を注入し、コア推論プロセスを制御する。
論文 参考訳(メタデータ) (2022-05-25T09:53:47Z) - Attention cannot be an Explanation [99.37090317971312]
私たちは、人間の信頼と信頼を高める上で、注意に基づく説明がどの程度効果的か尋ねる。
我々は,注意に基づく説明が適している程度を質的かつ定量的に評価することを目的とした広範囲な人間実験を行った。
実験の結果,注意は説明として利用できないことが明らかとなった。
論文 参考訳(メタデータ) (2022-01-26T21:34:05Z) - Learning to ignore: rethinking attention in CNNs [87.01305532842878]
我々は,CNNの注意機構を再構築し,出席する学習ではなく無視することを学ぶことを提案する。
具体的には、シーン内で無関係な情報を明示的に学習し、生成した表現でそれを抑えることを提案する。
論文 参考訳(メタデータ) (2021-11-10T13:47:37Z) - Causal Attention for Unbiased Visual Recognition [76.87114090435618]
注意モジュールは、どんなコンテキストにおいても堅牢な因果的特徴を深層モデルで学ぶのに役立つとは限らない。
本稿では,コーカサリ・アテンション・モジュール(CaaM)を提案する。
OOD設定では、CaaMによるディープモデルは、それなしではパフォーマンスが大幅に向上する。
論文 参考訳(メタデータ) (2021-08-19T16:45:51Z) - Is Sparse Attention more Interpretable? [52.85910570651047]
我々は,空間が注意力を説明可能性ツールとして活用する能力にどのように影響するかを検討する。
入力とインデックス付き中間表現の間には弱い関係しか存在しません。
この設定では、疎度を誘導することで、モデルの振る舞いを理解するためのツールとして注意が使用できることが、より確実になる可能性があることを観察する。
論文 参考訳(メタデータ) (2021-06-02T11:42:56Z) - Improving the Faithfulness of Attention-based Explanations with
Task-specific Information for Text Classification [9.147707153504117]
タスク固有の非コンテキスト化情報を学習し,アテンション重み付けをスケールする新しいタスクスケーリング(tasc)機構を提案する。
TaScは、広く使用されている3つの解釈可能性技術と比較して、より忠実な注意に基づく説明を提供します。
論文 参考訳(メタデータ) (2021-05-06T13:35:03Z) - Why Attentions May Not Be Interpretable? [46.69116768203185]
近年の研究では、注目・重要解釈は期待どおりに機能しないことが多いことが判明した。
この現象の根本原因の一つがショートカットであり、注意重み自体が余分な情報を運ぶ可能性があることを示している。
この問題を緩和する2つの方法を提案する。
論文 参考訳(メタデータ) (2020-06-10T05:08:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。