論文の概要: TensorCoder: Dimension-Wise Attention via Tensor Representation for
Natural Language Modeling
- arxiv url: http://arxiv.org/abs/2008.01547v2
- Date: Wed, 12 Aug 2020 11:25:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-06 01:36:24.493366
- Title: TensorCoder: Dimension-Wise Attention via Tensor Representation for
Natural Language Modeling
- Title(参考訳): TensorCoder:自然言語モデリングのためのテンソル表現による次元の注意
- Authors: Shuai Zhang, Peng Zhang, Xindian Ma, Junqiu Wei, Ningning Wang, Qun
Liu
- Abstract要約: Transformerは多くの自然言語処理(NLP)タスクで広く使われている。
本稿では,新しい言語モデリング手法を開発できる次元的アテンション機構を提案する。
- 参考スコア(独自算出の注目度): 20.99270226679373
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Transformer has been widely-used in many Natural Language Processing (NLP)
tasks and the scaled dot-product attention between tokens is a core module of
Transformer. This attention is a token-wise design and its complexity is
quadratic to the length of sequence, limiting its application potential for
long sequence tasks. In this paper, we propose a dimension-wise attention
mechanism based on which a novel language modeling approach (namely
TensorCoder) can be developed. The dimension-wise attention can reduce the
attention complexity from the original $O(N^2d)$ to $O(Nd^2)$, where $N$ is the
length of the sequence and $d$ is the dimensionality of head. We verify
TensorCoder on two tasks including masked language modeling and neural machine
translation. Compared with the original Transformer, TensorCoder not only
greatly reduces the calculation of the original model but also obtains improved
performance on masked language modeling task (in PTB dataset) and comparable
performance on machine translation tasks.
- Abstract(参考訳): Transformerは多くの自然言語処理(NLP)タスクで広く使われており、トークン間のドット積のスケールはTransformerの中核モジュールである。
この注意はトークン単位で設計され、複雑さはシーケンスの長さに二乗的であり、長いシーケンスタスクの応用可能性を制限する。
本稿では,新しい言語モデリング手法(すなわちテンソルコーダ)を開発できる次元的注意機構を提案する。
次元的な注意は、本来の$O(N^2d)$から$O(Nd^2)$へと注意の複雑さを減らし、$N$はシーケンスの長さ、$d$はヘッドの次元である。
マスキング言語モデリングとニューラルマシン変換を含む2つのタスクでテンソルコーダを検証する。
オリジナルのTransformerと比較して、TensorCoderはオリジナルのモデルの計算を大幅に削減するだけでなく、マスク付き言語モデリングタスク(TBデータセット)および機械翻訳タスクにおける同等のパフォーマンスも向上する。
関連論文リスト
- Token Statistics Transformer: Linear-Time Attention via Variational Rate Reduction [29.12836710966048]
本稿では,トークン数に応じて計算複雑性が線形にスケールする新しいトランスフォーマーアテンション演算子を提案する。
本研究は, トランスフォーマーアーキテクチャの成功に対して, ペアワイズ類似性スタイルの注意機構が重要であるという従来の知恵に疑問を投げかけるものである。
論文 参考訳(メタデータ) (2024-12-23T18:59:21Z) - Transformers are Efficient Compilers, Provably [11.459397066286822]
トランスフォーマーベースの大規模言語モデル(LLM)は、幅広い言語関連タスクにおいて驚くほど堅牢なパフォーマンスを示している。
本稿では,表現力の観点から,トランスフォーマーをコンパイラとして用いることの正式な調査に向けて第一歩を踏み出す。
代表言語であるMini-Huskyを導入し、現代のC言語の特徴をカプセル化する。
論文 参考訳(メタデータ) (2024-10-07T20:31:13Z) - Separations in the Representational Capabilities of Transformers and Recurrent Architectures [27.783705012503237]
我々は,トランスフォーマーとRNNの表現能力の違いを,実践的妥当性のいくつかのタスクで分析する。
対数幅の一層変換器がインデックス検索を行うのに対し、RNNは線形サイズを隠蔽する必要があることを示す。
また、ログサイズの2層トランスは、最寄りのアルゴリズムをフォワードパスで実装できることを示す。
論文 参考訳(メタデータ) (2024-06-13T17:31:30Z) - Chain of Thought Empowers Transformers to Solve Inherently Serial Problems [57.58801785642868]
思考の連鎖(CoT)は、算術や記号的推論タスクにおいて、大きな言語モデル(LLM)の精度を向上させるための非常に効果的な方法である。
この研究は、表現性のレンズを通してデコーダのみの変換器に対するCoTのパワーを理論的に理解する。
論文 参考訳(メタデータ) (2024-02-20T10:11:03Z) - LongNet: Scaling Transformers to 1,000,000,000 Tokens [146.4077038371075]
LongNetはTransformerの変種で、シーケンス長を10億以上のトークンに拡張できる。
我々の研究は、例えば、コーパス全体やインターネット全体をシーケンスとして扱うなど、非常に長いシーケンスをモデリングする新たな可能性を開く。
論文 参考訳(メタデータ) (2023-07-05T17:59:38Z) - Scaling Transformer to 1M tokens and beyond with RMT [5.60052250541419]
変圧器によって解ける問題の範囲の広い大きな制限は、入力サイズによる計算複雑性の2次スケーリングである。
本研究では,入力コンテキスト長を線形にスケーリングしながら,事前学習したトランスフォーマーモデルの繰り返しメモリ拡張について検討する。
提案手法は,検索精度を高く保ちつつ,前例のない200万トークンのシーケンスの情報をメモリに格納できることを実証する。
論文 参考訳(メタデータ) (2023-04-19T16:18:54Z) - Efficient Long Sequence Modeling via State Space Augmented Transformer [92.74707853711374]
我々はSPADE($underlinetextbfS$tate sunderlinetextbfP$ace)を提案する。
我々は,SPADEの底層にSSMを付加し,他の層に対して効率的な局所的注意法を適用した。
Long Range Arenaベンチマークと言語モデリングタスクの実験結果から,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2022-12-15T20:51:27Z) - Linearizing Transformer with Key-Value Memory Bank [54.83663647680612]
我々は、ソースシーケンスを低次元表現に投影するアプローチであるMemSizerを提案する。
MemSizerは同じ線形時間複雑性を達成するだけでなく、効率的なリカレントスタイルの自己回帰生成も楽しめる。
我々はMemSizerがバニラ変圧器の効率と精度のトレードオフを改善することを実証した。
論文 参考訳(メタデータ) (2022-03-23T18:10:18Z) - Exploring Unsupervised Pretraining Objectives for Machine Translation [99.5441395624651]
教師なし言語間事前訓練は、ニューラルマシン翻訳(NMT)の強力な結果を得た
ほとんどのアプローチは、入力の一部をマスキングしてデコーダで再構成することで、シーケンス・ツー・シーケンスアーキテクチャにマスク付き言語モデリング(MLM)を適用する。
マスキングと、実際の(完全な)文に似た入力を生成する代替目的を、文脈に基づいて単語を並べ替えて置き換えることにより比較する。
論文 参考訳(メタデータ) (2021-06-10T10:18:23Z) - Funnel-Transformer: Filtering out Sequential Redundancy for Efficient
Language Processing [112.2208052057002]
本稿では,隠れ状態の列を短く圧縮するFunnel-Transformerを提案する。
Funnel-TransformerはFLOPに匹敵する数が少ないため、様々なシーケンスレベルの予測タスクにおいて標準のTransformerよりも優れている。
論文 参考訳(メタデータ) (2020-06-05T05:16:23Z) - Time-aware Large Kernel Convolutions [41.19006428608901]
Time-Aware Large Kernel (TaLK) Convolutionsは、カーネルの総和の大きさを予測するために学習する新しい適応的畳み込み演算である。
提案手法は, 大規模標準機械翻訳, 抽象要約, 言語モデリングデータセットにおいて評価される。
論文 参考訳(メタデータ) (2020-02-08T15:30:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。