論文の概要: Attention Enables Zero Approximation Error
- arxiv url: http://arxiv.org/abs/2202.12166v1
- Date: Thu, 24 Feb 2022 16:06:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-25 17:24:55.223178
- Title: Attention Enables Zero Approximation Error
- Title(参考訳): Attentionはゼロ近似エラーを可能にする
- Authors: Zhiying Fang, Yidong Ouyang, Ding-Xuan Zhou, Guang Cheng
- Abstract要約: 固定数の変圧器エンコーダブロックと自由パラメータを持つ単一ヘッド自己アテンション変圧器は,任意の所望の入力エンコーダを誤りなく生成可能であることを示す。
その結果,自由パラメータ数が増加するシングルヘッド自己注意変換器は普遍的であることがわかった。
- 参考スコア(独自算出の注目度): 22.110336842946555
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning models have been widely applied in various aspects of daily
life. Many variant models based on deep learning structures have achieved even
better performances. Attention-based architectures have become almost
ubiquitous in deep learning structures. Especially, the transformer model has
now defeated the convolutional neural network in image classification tasks to
become the most widely used tool. However, the theoretical properties of
attention-based models are seldom considered. In this work, we show that with
suitable adaptations, the single-head self-attention transformer with a fixed
number of transformer encoder blocks and free parameters is able to generate
any desired polynomial of the input with no error. The number of transformer
encoder blocks is the same as the degree of the target polynomial. Even more
exciting, we find that these transformer encoder blocks in this model do not
need to be trained. As a direct consequence, we show that the single-head
self-attention transformer with increasing numbers of free parameters is
universal. These surprising theoretical results clearly explain the outstanding
performances of the transformer model and may shed light on future
modifications in real applications. We also provide some experiments to verify
our theoretical result.
- Abstract(参考訳): ディープラーニングモデルは日常生活の様々な側面に広く応用されている。
ディープラーニング構造に基づく多くの変種モデルは、さらに優れたパフォーマンスを実現している。
注意に基づくアーキテクチャは、ディープラーニング構造においてほとんどどこにでもある。
特に、トランスモデルは画像分類タスクにおける畳み込みニューラルネットワークを破り、最も広く使われているツールとなった。
しかし、注意に基づくモデルの理論的性質はほとんど考慮されない。
そこで本研究では,任意の数の変圧器エンコーダブロックと自由パラメータを持つ単頭自己着脱変圧器を用いて,入力の所望の多項式を誤りなく生成できることを示す。
変換器エンコーダブロックの数は、対象多項式の次数と同じである。
さらにエキサイティングなことに、このモデルのトランスフォーマーエンコーダブロックをトレーニングする必要はありません。
その結果,自由パラメータ数が増加するシングルヘッド自己注意変換器は普遍的であることがわかった。
これらの驚くべき理論結果はトランスフォーマーモデルの優れた性能を明確に説明し、実際の応用における将来の変更に光を当てる可能性がある。
また、理論的結果を検証するための実験も行っている。
関連論文リスト
- Transformers Get Stable: An End-to-End Signal Propagation Theory for Language Models [6.809572275782338]
本研究では, 変換器モデルを用いて, 前方信号のモーメントと後方信号のモーメントを制御できる統一信号伝搬理論を開発し, 公式を提供する。
我々のフレームワークは、ハイアテンションスコアに関連する、消失/爆発の勾配、ランク崩壊、不安定性を理解し、緩和するために使用することができる。
論文 参考訳(メタデータ) (2024-03-14T17:59:14Z) - How Transformers Learn Causal Structure with Gradient Descent [49.808194368781095]
自己注意はトランスフォーマーが因果構造をエンコードすることを可能にする。
我々は、潜在因果構造を学習する必要があるコンテキスト内学習タスクを導入する。
我々は、文脈内学習タスクで訓練されたトランスフォーマーが、様々な因果構造を回復できることを示す。
論文 参考訳(メタデータ) (2024-02-22T17:47:03Z) - iTransformer: Inverted Transformers Are Effective for Time Series Forecasting [62.40166958002558]
iTransformerを提案する。これは、逆次元に注意とフィードフォワードのネットワークを単純に適用する。
iTransformerモデルは、挑戦的な現実世界のデータセットの最先端を実現する。
論文 参考訳(メタデータ) (2023-10-10T13:44:09Z) - Quantizable Transformers: Removing Outliers by Helping Attention Heads
Do Nothing [18.673619610942197]
現代のトランスモデルは、アクティベーションにおいて強い外れ値を学ぶ傾向があるため、定量化が難しい。
我々は、強い外れ値が「ノーオップ」または単に残像の部分的な更新を学習しようとする注意ヘッドの非常に具体的な行動と関連していることを示す。
注意機構に対する2つの簡単な(非依存的な)修正(クリップされたソフトマックスとゲートアテンション)を提案する。
論文 参考訳(メタデータ) (2023-06-22T14:39:04Z) - Emergent Agentic Transformer from Chain of Hindsight Experience [96.56164427726203]
簡単なトランスフォーマーベースモデルが時間差と模倣学習に基づくアプローチの両方と競合することを示す。
単純なトランスフォーマーベースのモデルが時間差と模倣学習ベースのアプローチの両方で競合するのはこれが初めてである。
論文 参考訳(メタデータ) (2023-05-26T00:43:02Z) - An Introduction to Transformers [23.915718146956355]
Transformerは、有用なシーケンスやデータポイントのセットを学ぶために使用できるニューラルネットワークコンポーネントである。
本稿では,トランスアーキテクチャの数学的,正確,直感的,クリーンな記述を目指す。
論文 参考訳(メタデータ) (2023-04-20T14:54:19Z) - Learning to Grow Pretrained Models for Efficient Transformer Training [72.20676008625641]
そこでは、より小さなモデルのパラメータを線形にマッピングして、より大きなモデルを初期化する。
言語と視覚のトランスフォーマーをまたいだ実験では、学習した線形成長演算子(LiGO)が、スクラッチから最大50%の計算コストを節約できることが示されています。
論文 参考訳(メタデータ) (2023-03-02T05:21:18Z) - Your Transformer May Not be as Powerful as You Expect [88.11364619182773]
連続列列列関数を近似できるかどうかに関して, RPE ベースの変換器のパワーを数学的に解析する。
RPEをベースとしたトランスフォーマーでは,ニューラルネットワークの深さや幅がどんなに深くても近似できない連続列列列列関数が存在することを示す。
我々は,その条件を満たす,Universal RPE-based (URPE) Attentionと呼ばれる新しいアテンションモジュールを開発する。
論文 参考訳(メタデータ) (2022-05-26T14:51:30Z) - Entropy optimized semi-supervised decomposed vector-quantized
variational autoencoder model based on transfer learning for multiclass text
classification and generation [3.9318191265352196]
多クラステキスト分類とテキスト生成のための半教師付き離散潜在変数モデルを提案する。
提案モデルは,量子化変圧器モデルの学習に伝達学習の概念を用いる。
実験結果から,提案モデルが最先端モデルを大幅に上回ったことが示唆された。
論文 参考訳(メタデータ) (2021-11-10T07:07:54Z) - Transformers Solve the Limited Receptive Field for Monocular Depth
Prediction [82.90445525977904]
畳み込みニューラルネットワークとトランスの両方の恩恵を受けるアーキテクチャであるTransDepthを提案します。
連続ラベルを含む画素単位での予測問題にトランスフォーマーを適用する最初の論文である。
論文 参考訳(メタデータ) (2021-03-22T18:00:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。