論文の概要: Alternating Updates for Efficient Transformers
- arxiv url: http://arxiv.org/abs/2301.13310v1
- Date: Mon, 30 Jan 2023 22:06:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-01 18:30:08.563599
- Title: Alternating Updates for Efficient Transformers
- Title(参考訳): 効率的な変圧器の更新
- Authors: Cenk Baykal and Dylan Cutler and Nishanth Dikkala and Nikhil Ghosh and
Rina Panigrahy and Xin Wang
- Abstract要約: 計算負担を伴わずにモデル容量を増大させる簡単な実装法であるAltUp(AltUp)を導入する。
各種変圧器モデルと言語タスクに関する実験により,多様なベンチマークの更新を交互に行う一貫した有効性を示した。
- 参考スコア(独自算出の注目度): 15.364501124633179
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It is well established that increasing scale in deep transformer networks
leads to improved quality and performance. This increase in scale often comes
with an increase in compute cost and inference latency. Consequently, research
into methods which help realize the benefits of increased scale without leading
to an increase in the compute cost becomes important. We introduce Alternating
Updates (AltUp), a simple-to-implement method to increase a model's capacity
without the computational burden. AltUp enables the widening of the learned
representation without increasing the computation time by working on a subblock
of the representation at each layer. Our experiments on various transformer
models and language tasks demonstrate the consistent effectiveness of
alternating updates on a diverse set of benchmarks. Finally, we present
extensions of AltUp to the sequence dimension, and demonstrate how AltUp can be
synergistically combined with existing approaches, such as Sparse
Mixture-of-Experts models, to obtain efficient models with even higher
capacity.
- Abstract(参考訳): 深層変圧器ネットワークの規模拡大が品質と性能の向上につながることはよく確認されている。
このスケールの増加は、計算コストと推論遅延の増加を伴うことが多い。
その結果,計算コストの増加につながることなく,大規模化のメリットを実現する手法の研究が重要となる。
計算負担を伴わずにモデル容量を増大させる簡単な実装法であるAltUp(AltUp)を導入する。
AltUpは、各レイヤでの表現のサブブロックに取り組むことで、計算時間を増やすことなく、学習した表現の拡大を可能にする。
様々なトランスフォーマーモデルと言語タスクに関する実験により,様々なベンチマークにおける交互更新の有効性が実証された。
最後に、AltUpの拡張をシーケンス次元に示すとともに、Sparse Mixture-of-Expertsモデルのような既存のアプローチと相乗的に組み合わせることで、より高いキャパシティを持つ効率的なモデルが得られることを示す。
関連論文リスト
- CAST: Clustering Self-Attention using Surrogate Tokens for Efficient
Transformers [3.129187821625805]
本稿では,Surrogate Tokens (CAST) を用いたクラスタリング自己注意機構を提案する。
CASTは複雑性を$O(N2)$から$O(アルファN)$に減らして効率を向上する。
論文 参考訳(メタデータ) (2024-02-06T18:47:52Z) - Laughing Hyena Distillery: Extracting Compact Recurrences From
Convolutions [101.08706223326928]
近年のアテンションフリーシーケンスモデルの発展は、トランスフォーマーのコアにあるアテンション演算子の代替として、畳み込みに依存している。
本稿では,事前学習した長大な畳み込みアーキテクチャにおいて,トークン当たりの計算コストとメモリコストを$mathcal O(1)$にすることを提案する。
論文 参考訳(メタデータ) (2023-10-28T18:40:03Z) - HAT: Hybrid Attention Transformer for Image Restoration [61.74223315807691]
トランスフォーマーに基づく手法は、画像の超解像や復調といった画像復元タスクにおいて顕著な性能を示している。
本稿では,新たなHAT(Hybrid Attention Transformer)を提案する。
我々のHATは,定量的かつ定性的に,最先端の性能を達成する。
論文 参考訳(メタデータ) (2023-09-11T05:17:55Z) - Instant Soup: Cheap Pruning Ensembles in A Single Pass Can Draw Lottery
Tickets from Large Models [106.19385911520652]
Lottery Ticket hypothesis (LTH)とその変種は、パラメーターワークを生成する大規模な事前訓練モデルを作成するために利用されてきた。
LTHは反復的フルトレーニングと反復的マグニチュードプルーニング(IMP)のプルーニングルーチンによって著しく抑制される
Instant Soup Pruning (ISP) を提案する。
論文 参考訳(メタデータ) (2023-06-18T03:09:52Z) - ClusTR: Exploring Efficient Self-attention via Clustering for Vision
Transformers [70.76313507550684]
本稿では,密集自己注意の代替として,コンテンツに基づくスパースアテンション手法を提案する。
具体的には、合計トークン数を減少させるコンテンツベースの方法として、キーとバリュートークンをクラスタ化し、集約する。
結果として得られたクラスタ化されたTokenシーケンスは、元の信号のセマンティックな多様性を保持するが、より少ない計算コストで処理できる。
論文 参考訳(メタデータ) (2022-08-28T04:18:27Z) - Activating More Pixels in Image Super-Resolution Transformer [53.87533738125943]
トランスフォーマーベースの手法は、画像超解像のような低レベルの視覚タスクにおいて顕著な性能を示している。
本稿では,新たなHAT(Hybrid Attention Transformer)を提案する。
提案手法は1dB以上で最先端の手法を著しく上回っている。
論文 参考訳(メタデータ) (2022-05-09T17:36:58Z) - Learned Queries for Efficient Local Attention [11.123272845092611]
視覚変換器の自己保持機構は、高レイテンシと非効率なメモリ利用に悩まされる。
本稿では,クエリ・アンド・アテンション(QnA)と呼ばれる,新たなシフト不変なローカルアテンション層を提案する。
我々は、最先端モデルと同等の精度を達成しつつ、スピードとメモリの複雑さの改善を示す。
論文 参考訳(メタデータ) (2021-12-21T18:52:33Z) - Addressing Some Limitations of Transformers with Feedback Memory [51.94640029417114]
トランスフォーマーは、フィードフォワードネットワークであるにもかかわらず、シーケンシャルな自動回帰タスクにうまく適用されている。
本稿では、過去のすべての表現を将来のすべての表現に公開する、フィードバックトランスフォーマーアーキテクチャを提案する。
言語モデリング、機械翻訳、強化学習の様々なベンチマークにおいて、表現能力の増大は、同等のトランスフォーマーよりもはるかに強力なパフォーマンスを持つ、小さくて浅いモデルを生成することができることを実証する。
論文 参考訳(メタデータ) (2020-02-21T16:37:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。