論文の概要: The emergence of clusters in self-attention dynamics
- arxiv url: http://arxiv.org/abs/2305.05465v3
- Date: Tue, 17 Oct 2023 11:20:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2023-10-18 22:01:53.026631
- Title: The emergence of clusters in self-attention dynamics
- Title(参考訳): 自己注意力学におけるクラスターの出現
- Authors: Borjan Geshkovski, Cyril Letrouit, Yury Polyanskiy, Philippe Rigollet
- Abstract要約: トークンを表す粒子は、時間とともに無限大となるため、特定の制限対象に向かって集結する傾向にある。
力学系と偏微分方程式の手法を用いて、出現する制限対象の型は値行列のスペクトルに依存することを示す。
- 参考スコア(独自算出の注目度): 24.786862288360076
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Viewing Transformers as interacting particle systems, we describe the
geometry of learned representations when the weights are not time dependent. We
show that particles, representing tokens, tend to cluster toward particular
limiting objects as time tends to infinity. Cluster locations are determined by
the initial tokens, confirming context-awareness of representations learned by
Transformers. Using techniques from dynamical systems and partial differential
equations, we show that the type of limiting object that emerges depends on the
spectrum of the value matrix. Additionally, in the one-dimensional case we
prove that the self-attention matrix converges to a low-rank Boolean matrix.
The combination of these results mathematically confirms the empirical
observation made by Vaswani et al. [VSP'17] that leaders appear in a sequence
of tokens when processed by Transformers.
- Abstract(参考訳): 相互作用する粒子系としてトランスフォーマーを見ることにより,重みが時間に依存しない場合の学習表現の幾何学を記述する。
トークンを表す粒子は、時間とともに無限大となるため、特定の制限対象に向かって集結する傾向にある。
クラスタ位置は初期トークンによって決定され、Transformersが学習した表現のコンテキスト認識を確認する。
力学系と偏微分方程式の手法を用いて、出現する制限対象の型は値行列のスペクトルに依存することを示した。
さらに、一次元の場合、自己着行列が低階ブール行列に収束することを証明する。
これらの結果の組み合わせは、vaswaniらによる経験的観察を数学的に確認する。
[VSP'17]トランスフォーマーによって処理されると、リーダーが一連のトークンに現れる。
関連論文リスト
- Transformers learn factored representations [62.86679034549244]
トランスフォーマーは次のトークン予測を通じて事前訓練を受け、自分の世界を部品に分解する。
1) すべての因子の積空間における表現であり、その次元は成分の数とともに指数関数的に増加する。
我々は,部分空間の数,次元,文脈埋め込みの配置など,各活性化の幾何学的構造に関する正確な予測を導出する。
このことは、トランスフォーマーがなぜ世界を部品に分解するかを原理的に説明し、複雑なデータで訓練されたモデルでも解釈可能な低次元構造が持続する可能性があることを示唆している。
論文 参考訳(メタデータ) (2026-02-02T17:49:06Z) - Clustering in Deep Stochastic Transformers [10.988655177671255]
層正規化を伴うディープトランスフォーマーの既存の理論は、通常、トークンが単一のポイントにクラスタされることを予測している。
ランダムな値からノイズが発生する深層変圧器を解析する。
2つのトークンに対して、相互作用強度とトークン次元によって支配される相転移を証明します。
論文 参考訳(メタデータ) (2026-01-29T16:28:13Z) - Preconditioning Benefits of Spectral Orthogonalization in Muon [50.62925024212989]
線形変圧器の行列分解と文脈内学習の2つのケーススタディにおいて,ミュオンの簡易版の有効性について検討した。
解析の結果,Muonのダイナミクスはスペクトル領域内の独立したスカラー配列の集合に分解され,それぞれが同様の収束挙動を示すことが明らかとなった。
論文 参考訳(メタデータ) (2026-01-20T00:08:31Z) - Fighter: Unveiling the Graph Convolutional Nature of Transformers in Time Series Modeling [33.595964789473065]
この研究は、Graph Convolutional Network (GCN) にその基本的な等価性を確立することで、Transformerエンコーダをデミステレーションする。
textbfFighter (Flexible Graph Convolutional Transformer) は、冗長な線形射影を除去し、マルチホップグラフアグリゲーションを組み込んだ合理化アーキテクチャである。
論文 参考訳(メタデータ) (2025-10-20T02:42:14Z) - A Unified Perspective on the Dynamics of Deep Transformers [24.094975798576783]
深部変圧器によるデータ異方性の進化について検討する。
我々は、非正規化離散ケースにおいて、以前の結果と平行なクラスタリング現象を強調した。
論文 参考訳(メタデータ) (2025-01-30T13:04:54Z) - Clustering in pure-attention hardmax transformers and its role in sentiment analysis [0.0]
ハードマックス自己アテンションと正規化サブ層を有する変圧器の挙動を, 層数が無限大になる傾向があるため, 厳密に特徴づける。
変換器は、リーダーと呼ばれる特別な点によって決定されるクラスター平衡にインプット的に収束することを示す。
そして、この理論的理解を利用して、完全に解釈可能なトランスフォーマーモデルを用いて、言語処理から感情分析問題を解く。
論文 参考訳(メタデータ) (2024-06-26T16:13:35Z) - Towards Understanding Inductive Bias in Transformers: A View From Infinity [9.00214539845063]
変換器は、列空間のより置換対称関数に偏りがちである。
対称群の表現論は定量的な解析的予測に利用できることを示す。
我々は、WikiTextデータセットは、実際に置換対称性の程度を持っていると主張している。
論文 参考訳(メタデータ) (2024-02-07T19:00:01Z) - Matrix product state fixed points of non-Hermitian transfer matrices [11.686585954351436]
テンソルネットワークの仮想指標におけるゲージ自由度の影響について検討する。
ゲージ変換が伝達行列の固有状態の絡み合い構造に影響を及ぼすことを示す。
論文 参考訳(メタデータ) (2023-11-30T17:28:30Z) - iTransformer: Inverted Transformers Are Effective for Time Series Forecasting [62.40166958002558]
iTransformerを提案する。これは、逆次元に注意とフィードフォワードのネットワークを単純に適用する。
iTransformerモデルは、挑戦的な現実世界のデータセットの最先端を実現する。
論文 参考訳(メタデータ) (2023-10-10T13:44:09Z) - Transformers are efficient hierarchical chemical graph learners [7.074125287195362]
SubFormerは、メッセージパッシング機構によって情報を集約するサブグラフで動作するグラフトランスフォーマーである。
従来のグラフニューラルネットワークでは,SubFormerのオーバースムース化が制限され,オーバースキャッシングを回避することが示されている。
論文 参考訳(メタデータ) (2023-10-02T23:57:04Z) - Mapping of attention mechanisms to a generalized Potts model [50.91742043564049]
ニューラルネットワークのトレーニングは、いわゆる擬似様相法によって逆ポッツ問題を解くのと全く同じであることを示す。
また、レプリカ法を用いてモデルシナリオにおける自己意図の一般化誤差を解析的に計算する。
論文 参考訳(メタデータ) (2023-04-14T16:32:56Z) - How Do Transformers Learn Topic Structure: Towards a Mechanistic
Understanding [56.222097640468306]
我々は、トランスフォーマーが「意味構造」を学ぶ方法の機械的理解を提供する
数学的解析とウィキペディアデータの実験を組み合わせることで、埋め込み層と自己保持層がトピック構造をエンコードしていることを示す。
論文 参考訳(メタデータ) (2023-03-07T21:42:17Z) - Outliers Dimensions that Disrupt Transformers Are Driven by Frequency [79.22656609637525]
トークン周波数が異常現象に寄与することを示す。
また, モデル性能に対する外れ値の影響は層によって異なり, また, 乱れの大きさと符号化されたトークン周波数との相関関係も明らかとなった。
論文 参考訳(メタデータ) (2022-05-23T15:19:09Z) - Sinkformers: Transformers with Doubly Stochastic Attention [22.32840998053339]
我々はシンクホルンのアルゴリズムを用いて注意行列を2倍にし、その結果のモデルをシンクフォーマと呼ぶ。
実験面では、Sinkformersは視覚および自然言語処理タスクにおけるモデルの精度を向上させる。
重要なのは、3D形状の分類において、シンクフォーマーは顕著な改善をもたらすことである。
論文 参考訳(メタデータ) (2021-10-22T13:25:01Z) - Topographic VAEs learn Equivariant Capsules [84.33745072274942]
本稿では, 地理的に整理された潜伏変数を用いた深部生成モデルを効率的に学習するための新しい手法であるTopographic VAEを紹介する。
このようなモデルでは,MNIST上での桁数クラス,幅,スタイルなどの健全な特徴に応じて,その活性化を組織化することが実際に学べることが示される。
我々は、既存の群同変ニューラルネットワークの能力を拡張して、複素変換に近似した同値性を示す。
論文 参考訳(メタデータ) (2021-09-03T09:25:57Z) - Graph Gamma Process Generalized Linear Dynamical Systems [60.467040479276704]
実マルチ変数時系列をモデル化するために,グラフガンマ過程(GGP)線形力学系を導入する。
時間的パターン発見のために、モデルの下での潜在表現は、時系列を多変量部分列の同相集合に分解するために使用される。
非零次ノード数が有限であるランダムグラフを用いて、潜時状態遷移行列の空間パターンと次元の両方を定義する。
論文 参考訳(メタデータ) (2020-07-25T04:16:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。