論文の概要: FastRPB: a Scalable Relative Positional Encoding for Long Sequence Tasks
- arxiv url: http://arxiv.org/abs/2202.11364v1
- Date: Wed, 23 Feb 2022 09:12:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-24 15:47:18.324550
- Title: FastRPB: a Scalable Relative Positional Encoding for Long Sequence Tasks
- Title(参考訳): fastrpb: 長いシーケンスタスクのためのスケーラブルな相対位置符号化
- Authors: Maksim Zubkov, Daniil Gavrilov
- Abstract要約: 我々は,自己注意に位置情報を効率的に付加するFastRPBを紹介する。
FastRPB は O(N log(N)) の計算複雑性を持ち、O(N) メモリ w.r.t. 入力シーケンス長 N を必要とする。
- 参考スコア(独自算出の注目度): 0.2538209532048867
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Transformers achieve remarkable performance in various domains, including
NLP, CV, audio processing, and graph analysis. However, they do not scale well
on long sequence tasks due to their quadratic complexity w.r.t. the inputs
length. Linear Transformers were proposed to address this limitation. However,
these models have shown weaker performance on the long sequence tasks comparing
to the original one. In this paper, we explore Linear Transformer models,
rethinking their two core components. Firstly, we improved Linear Transformer
with Shift-Invariant Kernel Function SIKF, which achieve higher accuracy
without loss in speed. Secondly, we introduce FastRPB which stands for Fast
Relative Positional Bias, which efficiently adds positional information to
self-attention using Fast Fourier Transformation. FastRPB is independent of the
self-attention mechanism and can be combined with an original self-attention
and all its efficient variants. FastRPB has O(N log(N)) computational
complexity, requiring O(N) memory w.r.t. input sequence length N.
- Abstract(参考訳): トランスフォーマーは、NLP、CV、オーディオ処理、グラフ解析など、様々な領域で顕著な性能を発揮する。
しかし、それらは2次複雑性 w.r.t. の入力長のため、長いシーケンスタスクではうまくスケールしない。
この制限に対処するために線形変換器が提案された。
しかし、これらのモデルでは、元のモデルと比較して長いシーケンスタスクではより弱い性能を示している。
本稿では,Linear Transformerモデルについて検討し,その2つのコアコンポーネントを再考する。
まず,シフト不変カーネル関数sikfを用いた線形変圧器の改良を行い,速度を損なうことなく高い精度を実現する。
次に,高速フーリエ変換を用いて位置情報を自己注意に効率的に付加するFast Relative Positional BiasのFastRPBを紹介する。
FastRPBは自己アテンション機構とは独立であり、元の自己アテンションと全ての効率的な変異と組み合わせることができる。
FastRPB は O(N log(N)) の計算複雑性を持ち、O(N) メモリ w.r.t. 入力シーケンス長 N を必要とする。
関連論文リスト
- A Length Adaptive Algorithm-Hardware Co-design of Transformer on FPGA
Through Sparse Attention and Dynamic Pipelining [28.336502115532905]
本稿ではトランスフォーマーアクセラレーションのためのコヒーレントシーケンス長適応型アルゴリズム-ハードウェア共設計を提案する。
ハードウェアフレンドリーなスパースアテンション演算子と長編ハードウェアリソーススケジューリングアルゴリズムを開発した。
我々の設計は、非常に小さな精度の損失があり、CPUやGPUの実装と比較して80.2$times$と2.6$times$ Speedupがある。
論文 参考訳(メタデータ) (2022-08-07T05:48:38Z) - Paraformer: Fast and Accurate Parallel Transformer for
Non-autoregressive End-to-End Speech Recognition [62.83832841523525]
そこで我々はParaformerと呼ばれる高速かつ高精度な並列トランスを提案する。
出力トークンの数を正確に予測し、隠れた変数を抽出する。
10倍以上のスピードアップで、最先端のARトランスフォーマーに匹敵するパフォーマンスを実現することができる。
論文 参考訳(メタデータ) (2022-06-16T17:24:14Z) - What Dense Graph Do You Need for Self-Attention? [73.82686008622596]
我々はハイパーキューブにおけるトークンインタラクションをモデル化し、バニラ変換器と同等あるいはそれ以上の結果を示すスパーストランスフォーマーHypercube Transformerを提案する。
様々なシーケンス長を必要とするタスクの実験は、グラフ関数の検証をうまく行いました。
論文 参考訳(メタデータ) (2022-05-27T14:36:55Z) - Linearizing Transformer with Key-Value Memory Bank [54.83663647680612]
我々は、ソースシーケンスを低次元表現に投影するアプローチであるMemSizerを提案する。
MemSizerは同じ線形時間複雑性を達成するだけでなく、効率的なリカレントスタイルの自己回帰生成も楽しめる。
我々はMemSizerがバニラ変圧器の効率と精度のトレードオフを改善することを実証した。
論文 参考訳(メタデータ) (2022-03-23T18:10:18Z) - Stable, Fast and Accurate: Kernelized Attention with Relative Positional
Encoding [63.539333383965726]
相対的位置符号化(RPE)を用いた変換器の注意計算を高速化する新しい手法を提案する。
相対的な位置符号化がToeplitz行列を形成するという観測に基づいて、Fast Fourier Transform (FFT) を用いて、RPEによるカーネル化された注意を効率的に計算できることを数学的に示す。
論文 参考訳(メタデータ) (2021-06-23T17:51:26Z) - FNet: Mixing Tokens with Fourier Transforms [0.578717214982749]
Transformerエンコーダアーキテクチャは、限られた精度コストで大幅に高速化できることを示しています。
入力トークンを「混合」する単純な線形変換に自己着脱部分層を置き換える。
FNetと呼ばれる結果のモデルは、長い入力に対して非常に効率的にスケールします。
論文 参考訳(メタデータ) (2021-05-09T03:32:48Z) - Finetuning Pretrained Transformers into RNNs [81.72974646901136]
トランスフォーマーは自然言語生成においてリカレントニューラルネットワーク(RNN)を上回っている。
線形複雑リカレント変種は自己回帰生成に適していることが証明されている。
この研究は、事前訓練された変換器を効率の良い再帰変換器に変換することを目的としている。
論文 参考訳(メタデータ) (2021-03-24T10:50:43Z) - Random Feature Attention [69.4671822971207]
ソフトマックス関数を近似するためにランダム特徴法を用いる線形時間空間アテンション RFA を提案する。
RFAは、従来のソフトマックスアテンションのドロップイン代替として使用することができ、オプションのゲーティング機構を通じて、遅延バイアスで直接学習する方法を提供する。
言語モデリングと機械翻訳の実験は、RFAが強力なトランスのベースラインと類似またはより良いパフォーマンスを達成することを実証します。
論文 参考訳(メタデータ) (2021-03-03T02:48:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。