論文の概要: Regularization, Semi-supervision, and Supervision for a Plausible Attention-Based Explanation
- arxiv url: http://arxiv.org/abs/2501.12775v1
- Date: Wed, 22 Jan 2025 10:17:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-23 13:30:11.585881
- Title: Regularization, Semi-supervision, and Supervision for a Plausible Attention-Based Explanation
- Title(参考訳): プラルーシブルアテンションに基づく説明のための規則化・半スーパービジョン・スーパービジョン
- Authors: Duc Hau Nguyen, Cyrielle Mallart, Guillaume Gravier, Pascale Sébillot,
- Abstract要約: 実験的な研究は、アテンションマップがモデル出力の説明として提供されることを仮定している。
近年の研究では、RNNエンコーダの注意重みが入力トークンに広まるため、ほとんど証明できないことが示されている。
注意マップの妥当性を向上させるために,学習対象関数に対する3つの制約を提案する。
- 参考スコア(独自算出の注目度): 0.2499907423888049
- License:
- Abstract: Attention mechanism is contributing to the majority of recent advances in machine learning for natural language processing. Additionally, it results in an attention map that shows the proportional influence of each input in its decision. Empirical studies postulate that attention maps can be provided as an explanation for model output. However, it is still questionable to ask whether this explanation helps regular people to understand and accept the model output (the plausibility of the explanation). Recent studies show that attention weights in the RNN encoders are hardly plausible because they spread on input tokens. We thus propose 3 additional constraints to the learning objective function to improve the plausibility of the attention map: regularization to increase the attention weight sparsity, semi-supervision to supervise the map by a heuristic and supervision by human annotation. Results show that all techniques can improve the attention map plausibility at some level. We also observe that specific instructions for human annotation might have a negative effect on classification performance. Beyond the attention map, the result of experiments on text classification tasks also shows that no matter how the constraint brings the gain, the contextualization layer plays a crucial role in finding the right space for finding plausible tokens.
- Abstract(参考訳): 注意機構は、自然言語処理のための機械学習の最近の進歩の大部分に寄与している。
さらに,その決定における各入力の比例的な影響を示すアテンションマップが得られた。
実験的な研究は、アテンションマップがモデル出力の説明として提供されることを仮定している。
しかし、この説明が普通の人がモデルのアウトプットを理解し、受け入れるのに役立つかどうか(説明の妥当性)を問うことは疑問である。
近年の研究では、RNNエンコーダの注意重みが入力トークンに広まるため、ほとんど証明できないことが示されている。
そこで我々は,注目地図の妥当性を高めるために,学習対象関数に3つの制約を加えることを提案する:注意重量の空間性を高めるための正規化,人間のアノテーションによるヒューリスティックかつ監督による地図の監視を半監督すること。
その結果,どの手法でもある程度の注意マップの妥当性が向上できることが示唆された。
また、人間のアノテーションに対する特定の指示が分類性能に悪影響を及ぼす可能性があることも観察した。
注意図の他に、テキスト分類タスクの実験結果からも、制約がどのように利得をもたらしようとも、コンテキスト化層は妥当なトークンを見つけるための適切な空間を見つける上で重要な役割を担っていることが示されている。
関連論文リスト
- Perturbation-based Self-supervised Attention for Attention Bias in Text
Classification [31.144857032681905]
本稿では,摂動に基づく自己監督型アテンションアプローチを提案し,注意学習の指導を行う。
文中のすべての単語に、その意味や予測を変えることなく、可能な限り多くのノイズを加えます。
3つのテキスト分類タスクの実験結果から,本手法は現在の注目モデルの性能を大幅に向上させることができることが示された。
論文 参考訳(メタデータ) (2023-05-25T03:18:18Z) - Guiding Visual Question Answering with Attention Priors [76.21671164766073]
本稿では,言語・視覚的接地による注意機構の導出について述べる。
この基礎は、クエリ内の構造化言語概念を視覚オブジェクト間の参照物に接続することで導かれる。
このアルゴリズムは、注意に基づく推論モデルを調べ、関連する連想的知識を注入し、コア推論プロセスを制御する。
論文 参考訳(メタデータ) (2022-05-25T09:53:47Z) - Self-supervised Implicit Glyph Attention for Text Recognition [52.68772018871633]
我々は、シーンテキスト認識(STR)手法、自監督型暗黙的グリフアテンション(SIGA)のための新しいアテンションメカニズムを提案する。
SIGAは、テキストイメージのグリフ構造を、共同で教師付きテキストセグメンテーションと暗黙の注意アライメントによって記述する。
実験の結果,SIGA は従来の STR 法よりも一貫した性能を示した。
論文 参考訳(メタデータ) (2022-03-07T13:40:33Z) - Rethinking Attention-Model Explainability through Faithfulness Violation
Test [29.982295060192904]
Attentio$odot$Gradient や LRP ベースのアテンション説明など,現在のアテンションベース手法の説明可能性について検討する。
テストされたほとんどの説明手法は、信頼度違反の問題によって予期せぬ障害を受けていることが示される。
論文 参考訳(メタデータ) (2022-01-28T13:42:31Z) - Attention cannot be an Explanation [99.37090317971312]
私たちは、人間の信頼と信頼を高める上で、注意に基づく説明がどの程度効果的か尋ねる。
我々は,注意に基づく説明が適している程度を質的かつ定量的に評価することを目的とした広範囲な人間実験を行った。
実験の結果,注意は説明として利用できないことが明らかとなった。
論文 参考訳(メタデータ) (2022-01-26T21:34:05Z) - Is Sparse Attention more Interpretable? [52.85910570651047]
我々は,空間が注意力を説明可能性ツールとして活用する能力にどのように影響するかを検討する。
入力とインデックス付き中間表現の間には弱い関係しか存在しません。
この設定では、疎度を誘導することで、モデルの振る舞いを理解するためのツールとして注意が使用できることが、より確実になる可能性があることを観察する。
論文 参考訳(メタデータ) (2021-06-02T11:42:56Z) - SparseBERT: Rethinking the Importance Analysis in Self-attention [107.68072039537311]
トランスフォーマーベースのモデルは、その強力な能力のために自然言語処理(NLP)タスクに人気がある。
事前学習モデルの注意マップの可視化は,自己着脱機構を理解するための直接的な方法の一つである。
本研究では,sparsebert設計の指導にも適用可能な微分可能アテンションマスク(dam)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-25T14:13:44Z) - Why Attentions May Not Be Interpretable? [46.69116768203185]
近年の研究では、注目・重要解釈は期待どおりに機能しないことが多いことが判明した。
この現象の根本原因の一つがショートカットであり、注意重み自体が余分な情報を運ぶ可能性があることを示している。
この問題を緩和する2つの方法を提案する。
論文 参考訳(メタデータ) (2020-06-10T05:08:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。