論文の概要: Transformer Interpretability Beyond Attention Visualization
- arxiv url: http://arxiv.org/abs/2012.09838v2
- Date: Mon, 5 Apr 2021 11:19:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-02 12:43:03.277962
- Title: Transformer Interpretability Beyond Attention Visualization
- Title(参考訳): 注意の可視化を超えたトランスフォーマーの解釈可能性
- Authors: Hila Chefer, Shir Gur, Lior Wolf
- Abstract要約: 自己保持技術、特にトランスフォーマーは、テキスト処理の分野を支配しています。
本研究では,トランスフォーマーネットワークの関連性を計算する新しい手法を提案する。
- 参考スコア(独自算出の注目度): 87.96102461221415
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Self-attention techniques, and specifically Transformers, are dominating the
field of text processing and are becoming increasingly popular in computer
vision classification tasks. In order to visualize the parts of the image that
led to a certain classification, existing methods either rely on the obtained
attention maps or employ heuristic propagation along the attention graph. In
this work, we propose a novel way to compute relevancy for Transformer
networks. The method assigns local relevance based on the Deep Taylor
Decomposition principle and then propagates these relevancy scores through the
layers. This propagation involves attention layers and skip connections, which
challenge existing methods. Our solution is based on a specific formulation
that is shown to maintain the total relevancy across layers. We benchmark our
method on very recent visual Transformer networks, as well as on a text
classification problem, and demonstrate a clear advantage over the existing
explainability methods.
- Abstract(参考訳): セルフアテンション技術、特にトランスフォーマーはテキスト処理の分野を支配しており、コンピュータビジョンの分類タスクでますます人気が高まっている。
特定の分類に繋がった画像の部分を視覚化するために、既存の手法は得られた注意図に依存するか、注意グラフに沿ってヒューリスティックな伝播を利用する。
本研究では,トランスフォーマーネットワークの関連性を計算する新しい手法を提案する。
この方法は、ディープテイラー分解の原理に基づいて局所的関連性を割り当て、それらの関係性スコアを層を通して伝播する。
この伝搬にはアテンション層と接続をスキップし、既存のメソッドに挑戦する。
我々のソリューションは、層間の関係性を維持するための特定の定式化に基づいている。
本手法は,最近の視覚トランスフォーマネットワークやテキスト分類問題に対してベンチマークを行い,既存の説明可能性よりも明確な利点を示す。
関連論文リスト
- DAPE V2: Process Attention Score as Feature Map for Length Extrapolation [63.87956583202729]
我々は特徴写像としての注意を概念化し、コンピュータビジョンにおける処理方法を模倣するために畳み込み演算子を適用した。
様々な注意関係のモデルに適応できる新しい洞察は、現在のTransformerアーキテクチャがさらなる進化の可能性があることを示している。
論文 参考訳(メタデータ) (2024-10-07T07:21:49Z) - Analyzing Vision Transformers for Image Classification in Class
Embedding Space [5.210197476419621]
この研究は、画像分類タスクを解決するために訓練されたビジョン変換器をリバースエンジニアリングする手法を導入する。
NLPにおける過去の研究に触発されて、階層の任意のレベルにおける内部表現が、学習したクラス空間にどのように投影できるかを実証した。
我々は,画像トークンが注意機構や文脈情報に依存するクラス固有の表現をどのように発達させるかを示すために,我々のフレームワークを使用する。
論文 参考訳(メタデータ) (2023-10-29T10:25:23Z) - Towards Hierarchical Regional Transformer-based Multiple Instance
Learning [2.16656895298847]
本稿では,従来の学習注意機構を,地域的な視覚変換装置にインスパイアされた自己認識機構に置き換える,トランスフォーマーに基づくマルチインスタンス学習手法を提案する。
本稿では,地域パッチ情報を融合してスライドレベルの予測を導出し,この地域アグリゲーションをどのように積み重ねて,異なる距離における特徴を階層的に処理するかを示す。
本手法は,2つの病理組織学的データセットのベースライン上での性能を著しく向上させることができ,今後の研究に向けての有望な方向に向かっている。
論文 参考訳(メタデータ) (2023-08-24T08:19:15Z) - Decoding Layer Saliency in Language Transformers [0.0]
よりよく研究されている視覚ネットワークでは、サリエンシはネットワークの畳み込み層を通して自然に局所化される。
そこで我々は,これらのネットワークに対して勾配法を適応させ,各レイヤのセマンティックコヒーレンス度を評価する手法を提案し,複数のベンチマーク分類データセットに対して一貫した改善を示す。
論文 参考訳(メタデータ) (2023-08-09T20:53:22Z) - SATS: Self-Attention Transfer for Continual Semantic Segmentation [50.51525791240729]
連続的なセマンティックセグメンテーションは、連続的な分類学習と同じ破滅的な忘れの問題に悩まされる。
本研究では,各画像内の要素間の関係について,知識に関連する新しいタイプの情報伝達を提案する。
関係情報は、トランスフォーマースタイルのセグメンテーションモデルにおける自己アテンションマップから有効に得ることができる。
論文 参考訳(メタデータ) (2022-03-15T06:09:28Z) - Augmenting Convolutional networks with attention-based aggregation [55.97184767391253]
我々は,非局所的推論を実現するために,注目に基づくグローバルマップを用いた畳み込みネットワークの強化方法を示す。
この学習集約層を2つのパラメータ(幅と深さ)でパラメータ化した単純パッチベースの畳み込みネットワークで接続する。
これは、特にメモリ消費の点で、精度と複雑さの間の驚くほど競争力のあるトレードオフをもたらす。
論文 参考訳(メタデータ) (2021-12-27T14:05:41Z) - TransFG: A Transformer Architecture for Fine-grained Recognition [27.76159820385425]
近年,視覚変換器 (ViT) は従来の分類課題において高い性能を示した。
我々は、トランスの生の注意重みをすべて注意マップに統合する新しいトランスベースのフレームワークTransFGを提案します。
類似サブクラスの特徴表現間の距離をさらに拡大するために、コントラスト損失が適用される。
論文 参考訳(メタデータ) (2021-03-14T17:03:53Z) - Visualization of Supervised and Self-Supervised Neural Networks via
Attribution Guided Factorization [87.96102461221415]
クラスごとの説明性を提供するアルゴリズムを開発した。
実験の広範なバッテリーでは、クラス固有の可視化のための手法の能力を実証する。
論文 参考訳(メタデータ) (2020-12-03T18:48:39Z) - CrossTransformers: spatially-aware few-shot transfer [92.33252608837947]
非常に少ないデータを持つ新しいタスクを考えると、現代の視覚システムは驚くほど急速に低下する。
現代の視覚システムを支えるニューラルネットワーク表現が、どのようにして監督の崩壊にさらされているかを示す。
そこで我々は,伝達を良くする汎用的な機能を促進するために,自己指導型学習を提案する。
論文 参考訳(メタデータ) (2020-07-22T15:37:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。