論文の概要: Easy attention: A simple self-attention mechanism for Transformers
- arxiv url: http://arxiv.org/abs/2308.12874v1
- Date: Thu, 24 Aug 2023 15:54:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-25 13:24:51.048665
- Title: Easy attention: A simple self-attention mechanism for Transformers
- Title(参考訳): 簡単な注意:変圧器の簡単な自己注意機構
- Authors: Marcial Sanchis-Agudo and Yuning Wang and Karthik Duraisamy and
Ricardo Vinuesa
- Abstract要約: 本稿では,変圧器ニューラルネットのロバスト性を改善するため,簡単な注意機構を提案する。
より複雑な高次元力学系における応用の可能性を示す。
- 参考スコア(独自算出の注目度): 2.8333806160405937
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: To improve the robustness of transformer neural networks used for
temporal-dynamics prediction of chaotic systems, we propose a novel attention
mechanism called easy attention. Due to the fact that self attention only makes
usage of the inner product of queries and keys, it is demonstrated that the
keys, queries and softmax are not necessary for obtaining the attention score
required to capture long-term dependencies in temporal sequences. Through
implementing singular-value decomposition (SVD) on the softmax attention score,
we further observe that the self attention compresses contribution from both
queries and keys in the spanned space of the attention score. Therefore, our
proposed easy-attention method directly treats the attention scores as
learnable parameters. This approach produces excellent results when
reconstructing and predicting the temporal dynamics of chaotic systems
exhibiting more robustness and less complexity than the self attention or the
widely-used long short-term memory (LSTM) network. Our results show great
potential for applications in more complex high-dimensional dynamical systems.
- Abstract(参考訳): カオスシステムの時間力学予測に使用される変圧器ニューラルネットのロバスト性を改善するために,簡単な注意機構を提案する。
自己注意はクエリやキーの内積のみを使用するため,時間系列の長期依存を捉えるために必要な注意スコアを得るためには,キー,クエリ,ソフトマックスは不要であることが示されている。
さらに,ソフトマックスアテンションスコアに特異値分解(svd)を導入することで,アテンションスコアのスパンドスペースにおけるクエリとキーの両方からの貢献を自己アテンションが圧縮するのをさらに観察する。
そこで,本提案手法は注意点を直接学習可能なパラメータとして扱う。
この手法は,カオスシステムの時間的ダイナミクスを再構築・予測する際に,自己注意やLSTM(Long-term memory)ネットワークよりも堅牢性が高く,複雑度が低い場合に優れた結果をもたらす。
より複雑な高次元力学系における応用の可能性を示す。
関連論文リスト
- Local Attention Mechanism: Boosting the Transformer Architecture for Long-Sequence Time Series Forecasting [8.841114905151152]
局所注意機構 (LAM) は時系列解析に適した効率的な注意機構である。
LAMは時系列の連続性特性を利用して計算された注目点数を減少させる。
時間とメモリO(nlogn)で動作する代数テンソルにLAMを実装するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-04T11:32:02Z) - SFANet: Spatial-Frequency Attention Network for Weather Forecasting [54.470205739015434]
天気予報は様々な分野において重要な役割を担い、意思決定とリスク管理を推進している。
伝統的な手法は、しばしば気象系の複雑な力学を捉えるのに苦労する。
本稿では,これらの課題に対処し,天気予報の精度を高めるための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2024-05-29T08:00:15Z) - Attention as Robust Representation for Time Series Forecasting [23.292260325891032]
多くの実用化には時系列予測が不可欠である。
トランスフォーマーの重要な特徴、注意機構、データ表現を強化するために動的に埋め込みを融合させ、しばしば注意重みを副産物の役割に還元する。
提案手法は,時系列の主表現として注目重みを高くし,データポイント間の時間的関係を利用して予測精度を向上させる。
論文 参考訳(メタデータ) (2024-02-08T03:00:50Z) - Triplet Attention Transformer for Spatiotemporal Predictive Learning [9.059462850026216]
本稿では,フレーム間動的特徴とフレーム内静的特徴の両方を捉えるために,革新的な三重項注意変換器を提案する。
このモデルはトリプレット・アテンション・モジュール(TAM)を組み込んだもので、時間、空間、チャネル次元における自己アテンションのメカニズムを探求することで、従来のリカレント・ユニットを置き換える。
論文 参考訳(メタデータ) (2023-10-28T12:49:33Z) - DRAformer: Differentially Reconstructed Attention Transformer for
Time-Series Forecasting [7.805077630467324]
時系列予測は、機器ライフサイクル予測、天気予報、交通フロー予測など、多くの現実シナリオにおいて重要な役割を果たす。
最近の研究から、様々なトランスフォーマーモデルが時系列予測において顕著な結果を示したことが観察できる。
しかし、時系列予測タスクにおけるトランスフォーマーモデルの性能を制限する問題がまだ残っている。
論文 参考訳(メタデータ) (2022-06-11T10:34:29Z) - Autoformer: Decomposition Transformers with Auto-Correlation for
Long-Term Series Forecasting [68.86835407617778]
Autoformerは、Auto-Correlation機構を備えた、新しい分解アーキテクチャである。
長期的な予測では、Autoformerは6つのベンチマークで相対的に改善され、最先端の精度が得られる。
論文 参考訳(メタデータ) (2021-06-24T13:43:43Z) - Capturing Multi-Resolution Context by Dilated Self-Attention [58.69803243323346]
限定的自己意識と拡張メカニズムの組み合わせを提案し,これを拡張的自己意識と呼ぶ。
制限された自己注意は、高分解能でクエリの隣接するフレームに注意を払い、拡張メカニズムは、より低い解像度でそれに出席できるように遠方の情報を要約します。
ASRの結果は、制限された自己アテンションのみと比較して大幅に改善され、計算コストのごく一部をフルシーケンスベースの自己アテンションと比較すると、同様の結果が得られる。
論文 参考訳(メタデータ) (2021-04-07T02:04:18Z) - Stochastically forced ensemble dynamic mode decomposition for
forecasting and analysis of near-periodic systems [65.44033635330604]
本稿では,観測力学を強制線形系としてモデル化した新しい負荷予測手法を提案する。
固有線型力学の利用は、解釈可能性やパーシモニーの観点から、多くの望ましい性質を提供することを示す。
電力グリッドからの負荷データを用いたテストケースの結果が提示される。
論文 参考訳(メタデータ) (2020-10-08T20:25:52Z) - Attention that does not Explain Away [54.42960937271612]
Transformerアーキテクチャに基づくモデルは、大規模なタスクに対して競合するアーキテクチャに基づくモデルよりも精度が高い。
Transformerのユニークな特徴は、任意の距離で自由な情報の流れを可能にする自己認識機構の普遍的な応用である。
本稿では,実装が簡単で,"説明的回避"効果を避けるための理論的保証を提供する,二重正規化アテンション方式を提案する。
論文 参考訳(メタデータ) (2020-09-29T21:05:39Z) - Untangling tradeoffs between recurrence and self-attention in neural
networks [81.30894993852813]
本稿では,再帰的ネットワークにおける自己注意が勾配伝播に与える影響を公式に分析する。
長期的な依存関係を捉えようとするとき、勾配をなくすことの問題を緩和することを証明する。
本稿では,スパース自己アテンションを反復的にスケーラブルに利用するための関連性スクリーニング機構を提案する。
論文 参考訳(メタデータ) (2020-06-16T19:24:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。