論文の概要: Learning a Fourier Transform for Linear Relative Positional Encodings in
Transformers
- arxiv url: http://arxiv.org/abs/2302.01925v1
- Date: Fri, 3 Feb 2023 18:57:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-06 15:16:14.200289
- Title: Learning a Fourier Transform for Linear Relative Positional Encodings in
Transformers
- Title(参考訳): 変圧器の線形相対的位置符号化のためのフーリエ変換の学習
- Authors: Krzysztof Marcin Choromanski, Shanda Li, Valerii Likhosherstov, Kumar
Avinava Dubey, Shengjie Luo, Di He, Yiming Yang, Tamas Sarlos, Thomas
Weingarten, Adrian Weller
- Abstract要約: 我々はLearner-Transformers(Learner-Transformers)と呼ばれる線形変換器の新しいクラスを提案する。
学習者変換器は、幅広い相対的位置符号化機構(RPE)を組み込む
また、画像分類や3次元分子モデリングといった他のデータモダリティやタスクについても、sを徹底的に検証した。
- 参考スコア(独自算出の注目度): 60.58073666177477
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a new class of linear Transformers called
FourierLearner-Transformers (FLTs), which incorporate a wide range of relative
positional encoding mechanisms (RPEs). These include regular RPE techniques
applied for nongeometric data, as well as novel RPEs operating on the sequences
of tokens embedded in higher-dimensional Euclidean spaces (e.g. point clouds).
FLTs construct the optimal RPE mechanism implicitly by learning its spectral
representation. As opposed to other architectures combining efficient low-rank
linear attention with RPEs, FLTs remain practical in terms of their memory
usage and do not require additional assumptions about the structure of the
RPE-mask. FLTs allow also for applying certain structural inductive bias
techniques to specify masking strategies, e.g. they provide a way to learn the
so-called local RPEs introduced in this paper and providing accuracy gains as
compared with several other linear Transformers for language modeling. We also
thoroughly tested FLTs on other data modalities and tasks, such as: image
classification and 3D molecular modeling. For 3D-data FLTs are, to the best of
our knowledge, the first Transformers architectures providing RPE-enhanced
linear attention.
- Abstract(参考訳): 本稿では,広範囲な相対位置符号化機構(rpes)を組み込んだ新しいリニアトランスフォーマ(flts)を提案する。
これらは非幾何学的データに適用される正規の RPE 技術や、高次元ユークリッド空間(例えば点雲)に埋め込まれたトークンの列で動作する新しい RPE 技術を含む。
FLTはスペクトル表現を学習することで、最適RPE機構を暗黙的に構築する。
効率的な低ランク線形注意とRPEを組み合わせた他のアーキテクチャとは異なり、FLTはメモリ使用量の観点からも実用的であり、RPEマスクの構造に関する追加の仮定を必要としない。
FLTはまた、ある構造的帰納バイアス手法を適用してマスキング戦略を指定できる。例えば、この論文で導入されたいわゆる局所RPEを学習し、他の言語モデリング用線形変換器と比較して精度の高いゲインを提供する。
また、画像分類や3次元分子モデリングなど、他のデータモダリティやタスクでFLTを徹底的にテストした。
3DデータFLTは、私たちの知る限り、最初のトランスフォーマーアーキテクチャであり、RPE強化線形注意を提供する。
関連論文リスト
- Re-Parameterization of Lightweight Transformer for On-Device Speech Emotion Recognition [10.302458835329539]
軽量トランスフォーマーモデルの性能向上のための新しい手法であるTransformer Re-パラメータ化を導入する。
実験の結果,提案手法は軽量トランスフォーマーの性能を常に改善し,大規模モデルに匹敵する性能を示した。
論文 参考訳(メタデータ) (2024-11-14T10:36:19Z) - Learning Linear Attention in Polynomial Time [115.68795790532289]
線形注意を持つ単層変圧器の学習性に関する最初の結果を提供する。
線形アテンションは RKHS で適切に定義された線形予測器とみなすことができる。
我々は,すべての経験的リスクが線形変換器と同等のトレーニングデータセットを効率的に識別する方法を示す。
論文 参考訳(メタデータ) (2024-10-14T02:41:01Z) - Flatten Anything: Unsupervised Neural Surface Parameterization [76.4422287292541]
本研究では,FAM(Flatten Anything Model)を導入し,グローバルな自由境界面パラメータ化を実現する。
従来の手法と比較して,FAMは接続情報を活用することなく,個別の面上で直接動作する。
当社のFAMは前処理を必要とせずに完全に自動化されており,高度に複雑なトポロジを扱うことができる。
論文 参考訳(メタデータ) (2024-05-23T14:39:52Z) - Self-Supervised Pre-Training for Table Structure Recognition Transformer [25.04573593082671]
テーブル構造認識変換器のための自己教師付き事前学習(SSP)手法を提案する。
線形射影変換器とハイブリッドCNN変換器のパフォーマンスギャップは、TSRモデルにおける視覚エンコーダのSSPにより緩和できる。
論文 参考訳(メタデータ) (2024-02-23T19:34:06Z) - How Do Transformers Learn In-Context Beyond Simple Functions? A Case
Study on Learning with Representations [98.7450564309923]
本稿では、より複雑なシナリオにおける文脈内学習(ICL)の理解を、表現を用いた学習で研究する。
合成文内学習問題を合成構造を用いて構築し、ラベルは複雑なが固定された表現関数によって入力に依存する。
理論的には、そのようなアルゴリズムを軽度な深さと大きさでほぼ実装するトランスフォーマーの存在を示す。
論文 参考訳(メタデータ) (2023-10-16T17:40:49Z) - Transformers as Statisticians: Provable In-Context Learning with
In-Context Algorithm Selection [88.23337313766353]
この研究はまず、変換器がICLを実行するための包括的な統計理論を提供する。
コンテクストにおいて、トランスフォーマーは、幅広い種類の標準機械学習アルゴリズムを実装可能であることを示す。
エンフィングル変換器は、異なるベースICLアルゴリズムを適応的に選択することができる。
論文 参考訳(メタデータ) (2023-06-07T17:59:31Z) - Your Transformer May Not be as Powerful as You Expect [88.11364619182773]
連続列列列関数を近似できるかどうかに関して, RPE ベースの変換器のパワーを数学的に解析する。
RPEをベースとしたトランスフォーマーでは,ニューラルネットワークの深さや幅がどんなに深くても近似できない連続列列列列関数が存在することを示す。
我々は,その条件を満たす,Universal RPE-based (URPE) Attentionと呼ばれる新しいアテンションモジュールを開発する。
論文 参考訳(メタデータ) (2022-05-26T14:51:30Z) - Relative Positional Encoding for Transformers with Linear Complexity [30.48367640796256]
古典的なトランスフォーマーには、相対的位置符号化(RPE)が有用である。
RPEは、注意行列の明示的な計算を必要とするため、最近のTransformerの線形変種では利用できない。
本論文では,古典的添加剤(正弦波型)PEの代替として用いることができ,RPEのように振る舞うことができるPEの正確な生成方法について述べる。
論文 参考訳(メタデータ) (2021-05-18T09:52:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。