論文の概要: Associative Transformer
- arxiv url: http://arxiv.org/abs/2309.12862v3
- Date: Wed, 31 Jan 2024 01:05:14 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-01 17:40:50.038020
- Title: Associative Transformer
- Title(参考訳): 連想変換器
- Authors: Yuwei Sun, Hideya Ochiai, Zhirong Wu, Stephen Lin, Ryota Kanai
- Abstract要約: 本稿では,少人数の入力パッチ間の関連性を高めるために,Associative Transformer (AiT)を提案する。
AiTはVision Transformerよりもはるかに少ないパラメータとアテンション層を必要とする。
- 参考スコア(独自算出の注目度): 26.967506484952214
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Emerging from the pairwise attention in conventional Transformers, there is a
growing interest in sparse attention mechanisms that align more closely with
localized, contextual learning in the biological brain. Existing studies such
as the Coordination method employ iterative cross-attention mechanisms with a
bottleneck to enable the sparse association of inputs. However, these methods
are parameter inefficient and fail in more complex relational reasoning tasks.
To this end, we propose Associative Transformer (AiT) to enhance the
association among sparsely attended input patches, improving parameter
efficiency and performance in relational reasoning tasks. AiT leverages a
learnable explicit memory, comprised of various specialized priors, with a
bottleneck attention to facilitate the extraction of diverse localized
features. Moreover, we propose a novel associative memory-enabled patch
reconstruction with a Hopfield energy function. The extensive experiments in
four image classification tasks with three different sizes of AiT demonstrate
that AiT requires significantly fewer parameters and attention layers while
outperforming Vision Transformers and a broad range of sparse Transformers.
Additionally, AiT establishes new SOTA performance in the Sort-of-CLEVR
dataset, outperforming the previous Coordination method.
- Abstract(参考訳): 従来のトランスフォーマーの対の注意から、生物学的脳の局所的、文脈的学習とより緊密に連携するスパース注意機構への関心が高まっている。
コーディネーション法のような既存の研究では、入力の疎結合を可能にするためにボトルネックを伴う反復的なクロスアテンション機構を採用している。
しかし、これらのメソッドはパラメータ非効率であり、より複雑な関係推論タスクでは失敗する。
そこで本稿では,AiT (Associative Transformer) を提案する。AiT (Associative Transformer) は,疎結合な入力パッチ間の関連性を高め,パラメータ効率と関係推論タスクの性能を向上させる。
AiTは学習可能な明示的なメモリを活用しており、様々な局所的な特徴の抽出を容易にするためにボトルネックの注意を払っている。
さらに,ホップフィールドエネルギー関数を用いた新しい連想メモリ対応パッチ再構成を提案する。
aitの3つの異なるサイズを持つ4つの画像分類タスクにおける広範囲な実験は、aitが視覚トランスフォーマーや広い範囲のスパーストランスフォーマーよりもはるかに少ないパラメータと注意層を必要とすることを示している。
さらに、AiTは、Solt-of-CLEVRデータセットで新しいSOTAパフォーマンスを確立し、以前のコーディネーション手法より優れている。
関連論文リスト
- Mixture of Attention Yields Accurate Results for Tabular Data [21.410818837489973]
本稿では,エンコーダ・デコーダ・トランスを用いたMAYAを提案する。
エンコーダでは、複数の並列注意枝を構成するMOA(Mixture of Attention)を設計する。
我々は、より堅牢な表現を生成するために、動的一貫性重み制約を伴う協調学習を採用する。
論文 参考訳(メタデータ) (2025-02-18T03:43:42Z) - Toward Relative Positional Encoding in Spiking Transformers [52.62008099390541]
スパイキングニューラルネットワーク(スパイキングニューラルネット、英: Spiking Neural Network、SNN)は、脳内のニューロンが離散スパイクを通してどのように通信するかをモデル化するバイオインスパイアネットワークである。
本稿では,スパイキング変換器における相対位置符号化(RPE)の近似手法を提案する。
論文 参考訳(メタデータ) (2025-01-28T06:42:37Z) - Transforming Vision Transformer: Towards Efficient Multi-Task Asynchronous Learning [59.001091197106085]
Vision TransformerのためのMulti-Task Learning (MTL)は、複数のタスクを同時に処理することでモデル能力を向上させることを目的としている。
最近の研究は、Mixture-of-Experts(MoE)構造の設計とローランド適応(LoRA)によるマルチタスク学習の効率化に重点を置いている。
本稿では,事前学習した視覚変換器を効率的なマルチタスク学習器に変換することで,EMTAL(Efficient Multi-Task Learning)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2025-01-12T17:41:23Z) - Scaled and Inter-token Relation Enhanced Transformer for Sample-restricted Residential NILM [0.0]
本稿では,2つの革新点を持つトランスフォーマーアーキテクチャを提案する。
提案手法をREDDデータセット上で検証し, 各種アプライアンスに対してF1スコアを10~15%向上させる結果を得た。
論文 参考訳(メタデータ) (2024-10-12T18:58:45Z) - DAPE V2: Process Attention Score as Feature Map for Length Extrapolation [63.87956583202729]
我々は特徴写像としての注意を概念化し、コンピュータビジョンにおける処理方法を模倣するために畳み込み演算子を適用した。
様々な注意関係のモデルに適応できる新しい洞察は、現在のTransformerアーキテクチャがさらなる進化の可能性があることを示している。
論文 参考訳(メタデータ) (2024-10-07T07:21:49Z) - Skip-Layer Attention: Bridging Abstract and Detailed Dependencies in Transformers [56.264673865476986]
本稿では、Transformerモデルを強化するためのSLA(Skip-Layer Attention)を提案する。
SLAは、高レベルの抽象機能と低レベルの詳細の間の依存関係をキャプチャするモデルの能力を改善します。
我々の実装は、与えられたレイヤ内のクエリが、現在のレイヤと前のレイヤの両方のキーと値とやり取りできるようにすることで、Transformerの機能を拡張します。
論文 参考訳(メタデータ) (2024-06-17T07:24:38Z) - FAST: Factorizable Attention for Speeding up Transformers [1.3637227185793512]
本稿では,スペーシフィケーションを伴わずに,注目行列の完全な表現を維持する線形スケールアテンション機構を提案する。
その結果、我々の注意機構は堅牢な性能を示し、自己注意が使用される多様なアプリケーションに対して大きな可能性を秘めていることが示唆された。
論文 参考訳(メタデータ) (2024-02-12T18:59:39Z) - Correlated Attention in Transformers for Multivariate Time Series [22.542109523780333]
本稿では,特徴量依存を効率的に捕捉し,既存のトランスフォーマーのエンコーダブロックにシームレスに統合できる新しいアテンション機構を提案する。
特に、関連性のある注意は、特徴チャネルを横断して、クエリとキー間の相互共分散行列をラグ値で計算し、サブシリーズレベルで選択的に表現を集約する。
このアーキテクチャは、瞬時だけでなく、ラタグされた相互相関の発見と表現の学習を容易にすると同時に、本質的に時系列の自動相関をキャプチャする。
論文 参考訳(メタデータ) (2023-11-20T17:35:44Z) - The Lazy Neuron Phenomenon: On Emergence of Activation Sparsity in
Transformers [59.87030906486969]
本稿では,Transformer アーキテクチャを用いた機械学習モデルにおいて,アクティベーションマップが疎いという興味深い現象について考察する。
本稿では, 自然言語処理と視覚処理の両方において, スパーシリティが顕著な現象であることを示す。
本稿では,変換器のFLOP数を大幅に削減し,効率を向上する手法について論じる。
論文 参考訳(メタデータ) (2022-10-12T15:25:19Z) - Knowledge Amalgamation for Object Detection with Transformers [36.7897364648987]
ナレッジ・アマルガメーション (Knowledge Amalgamation, KA) は、数名の訓練を受けた教師から小学生に知識を伝達することを目的とした、新しいディープ・モデル・リユース・タスクである。
我々は,KAをシーケンスレベル・アマルガメーション(SA)とタスクレベル・アマルガメーション(TA)の2つの側面に分解することを提案する。
特に、教師シーケンスを固定サイズのものに冗長に集約する代わりに、教師シーケンスを連結することにより、シーケンスレベルのアマルガメーション内でヒントを生成する。
論文 参考訳(メタデータ) (2022-03-07T07:45:22Z) - Semantic Correspondence with Transformers [68.37049687360705]
本稿では,変換器を用いたコストアグリゲーション(CAT)を提案し,意味論的に類似した画像間の密接な対応を見出す。
初期相関マップと多レベルアグリゲーションを曖昧にするための外観親和性モデリングを含む。
提案手法の有効性を示す実験を行い,広範囲にわたるアブレーション研究を行った。
論文 参考訳(メタデータ) (2021-06-04T14:39:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。