論文の概要: Self-Attention Attribution: Interpreting Information Interactions Inside
Transformer
- arxiv url: http://arxiv.org/abs/2004.11207v2
- Date: Thu, 25 Feb 2021 10:53:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-10 09:38:09.102791
- Title: Self-Attention Attribution: Interpreting Information Interactions Inside
Transformer
- Title(参考訳): 自己アテンションの帰属:トランスフォーマー内部の情報相互作用の解釈
- Authors: Yaru Hao, Li Dong, Furu Wei, Ke Xu
- Abstract要約: 本稿では,トランスフォーマー内の情報相互作用を解釈する自己帰属属性法を提案する。
本研究は,BERT に対する非目標攻撃の実装において,その属性を敵対パターンとして用いることができることを示す。
- 参考スコア(独自算出の注目度): 89.21584915290319
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The great success of Transformer-based models benefits from the powerful
multi-head self-attention mechanism, which learns token dependencies and
encodes contextual information from the input. Prior work strives to attribute
model decisions to individual input features with different saliency measures,
but they fail to explain how these input features interact with each other to
reach predictions. In this paper, we propose a self-attention attribution
method to interpret the information interactions inside Transformer. We take
BERT as an example to conduct extensive studies. Firstly, we apply
self-attention attribution to identify the important attention heads, while
others can be pruned with marginal performance degradation. Furthermore, we
extract the most salient dependencies in each layer to construct an attribution
tree, which reveals the hierarchical interactions inside Transformer. Finally,
we show that the attribution results can be used as adversarial patterns to
implement non-targeted attacks towards BERT.
- Abstract(参考訳): トランスフォーマーベースのモデルの大きな成功は、トークン依存性を学習し、入力からコンテキスト情報をエンコードする強力なマルチヘッドセルフアテンションメカニズムの恩恵を受けている。
事前の作業では、個々の入力機能に対するモデル決定を、さまざまなサリエンシ尺度で属性付けするが、これらの入力機能がどのように相互に相互作用し、予測に達するかの説明に失敗している。
本稿では,トランスフォーマー内の情報相互作用を解釈する自己帰属属性法を提案する。
BERTを応用して広範な研究を行う。
第一に,注意ヘッドの識別に自己帰属属性を適用し,他は限界性能低下を伴って刈り取ることができる。
さらに,各レイヤの最も有意義な依存関係を抽出して帰属ツリーを構築し,transformer内の階層的相互作用を明らかにする。
最後に, BERT に対する非目標攻撃の実装において, 敵パターンとして属性結果が利用できることを示す。
関連論文リスト
- DAPE V2: Process Attention Score as Feature Map for Length Extrapolation [63.87956583202729]
我々は特徴写像としての注意を概念化し、コンピュータビジョンにおける処理方法を模倣するために畳み込み演算子を適用した。
様々な注意関係のモデルに適応できる新しい洞察は、現在のTransformerアーキテクチャがさらなる進化の可能性があることを示している。
論文 参考訳(メタデータ) (2024-10-07T07:21:49Z) - RAT: Retrieval-Augmented Transformer for Click-Through Rate Prediction [68.34355552090103]
本稿では, 試料内および試料間における微細な特徴相互作用の獲得を目的とした検索-拡張変換器(RAT)を開発した。
次に、トランスフォーマー層をカスケードされた注意で構築し、イントラサンプルとクロスサンプルの両方の機能インタラクションをキャプチャします。
実世界のデータセットの実験は、RATの有効性を裏付け、ロングテールシナリオにおいてその利点を示唆している。
論文 参考訳(メタデータ) (2024-04-02T19:14:23Z) - ExpPoint-MAE: Better interpretability and performance for self-supervised point cloud transformers [7.725095281624494]
マスク付き自動符号化の有効性を事前学習方式として評価し,代替手段としてMomentum Contrastを探索する。
我々は,トランスフォーマーが意味論的に意味のある領域への参加を学ぶことを観察し,事前学習が基礎となる幾何学の理解を深めることを示す。
論文 参考訳(メタデータ) (2023-06-19T09:38:21Z) - Learning Instance-Specific Augmentations by Capturing Local Invariances [62.70897571389785]
InstaAugは、データから入力固有の拡張を自動的に学習する方法である。
InstaAugは、幅広い変換クラスに対して意味のある入力依存の強化を学ぶことを実証的に示す。
論文 参考訳(メタデータ) (2022-05-31T18:38:06Z) - Measuring the Mixing of Contextual Information in the Transformer [0.19116784879310028]
注意ブロック - 複数頭部の注意、残差接続、および層正規化 - を考慮し、トークンとトークンの相互作用を測定するための計量を定義する。
次に,階層的な解釈を集約し,モデル予測のための入力属性スコアを提供する。
実験により,本手法は忠実な説明を提供し,類似のアグリゲーション法より優れていることを示す。
論文 参考訳(メタデータ) (2022-03-08T17:21:27Z) - Enjoy the Salience: Towards Better Transformer-based Faithful
Explanations with Word Salience [9.147707153504117]
本研究では,TextRankを用いて抽出した有能な情報に近づき,訓練中に多頭部注意機構を誘導する補助的損失関数を提案する。
5つのデータセットにわたる説明の忠実性の実験は、SaLossでトレーニングされたモデルが一貫してより忠実な説明を提供することを示している。
さらに、下流タスクにおいて、後者がより高い予測性能をもたらすことを示す。
論文 参考訳(メタデータ) (2021-08-31T11:21:30Z) - Transformers with Competitive Ensembles of Independent Mechanisms [97.93090139318294]
隠れた表現とパラメータを複数のメカニズムに分割し、注意を通して情報を交換する新しいトランスフォーマー層を提案する。
TIM を大規模 BERT モデル、画像変換器、および音声強調について研究し、意味的に意味のある専門化とパフォーマンスの向上の証拠を見つけます。
論文 参考訳(メタデータ) (2021-02-27T21:48:46Z) - SparseBERT: Rethinking the Importance Analysis in Self-attention [107.68072039537311]
トランスフォーマーベースのモデルは、その強力な能力のために自然言語処理(NLP)タスクに人気がある。
事前学習モデルの注意マップの可視化は,自己着脱機構を理解するための直接的な方法の一つである。
本研究では,sparsebert設計の指導にも適用可能な微分可能アテンションマスク(dam)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-25T14:13:44Z) - Inserting Information Bottlenecks for Attribution in Transformers [46.77580577396633]
ブラックボックスモデルにおける各特徴のアトリビューションを分析するために,情報ボトルネックを適用した。
本手法の有効性を帰属性の観点から示し,情報がどのように層を流れるのかを考察する。
論文 参考訳(メタデータ) (2020-12-27T00:35:43Z) - Do Syntax Trees Help Pre-trained Transformers Extract Information? [8.133145094593502]
本稿では,情報抽出タスクにおいて,依存木を事前学習した変換器に組み込むことの有用性について検討する。
依存関係構造を組み込むための2つの異なる戦略を提案し,検討する。
それらの性能向上は,人間による注釈付き依存関係解析の可用性に大きく影響していることがわかった。
論文 参考訳(メタデータ) (2020-08-20T17:17:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。