論文の概要: Transformer Learning of Chaotic Collective Dynamics in Many-Body Systems
- arxiv url: http://arxiv.org/abs/2601.19080v1
- Date: Tue, 27 Jan 2026 01:33:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-28 15:26:51.115874
- Title: Transformer Learning of Chaotic Collective Dynamics in Many-Body Systems
- Title(参考訳): 多体系におけるカオス集合ダイナミクスの変圧器学習
- Authors: Ho Jang, Gia-Wei Chern,
- Abstract要約: 本稿では,自己注意に基づくトランスフォーマー・フレームワークが,カオス的集団力学をモデル化するための効果的なアプローチを提供することを示す。
相互作用クエンチが強い非線形およびカオス力学を誘導する一次元半古典的ホルシュタインモデルについて検討する。
本研究は, カオス多体システムにおいて, 効果的還元力学を学習するための強力なメカニズムとして, 自己意識を確立した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning reduced descriptions of chaotic many-body dynamics is fundamentally challenging: although microscopic equations are Markovian, collective observables exhibit strong memory and exponential sensitivity to initial conditions and prediction errors. We show that a self-attention-based transformer framework provides an effective approach for modeling such chaotic collective dynamics directly from time-series data. By selectively reweighting long-range temporal correlations, the transformer learns a non-Markovian reduced description that overcomes intrinsic limitations of conventional recurrent architectures. As a concrete demonstration, we study the one-dimensional semiclassical Holstein model, where interaction quenches induce strongly nonlinear and chaotic dynamics of the charge-density-wave order parameter. While pointwise predictions inevitably diverge at long times, the transformer faithfully reproduces the statistical "climate" of the chaos, including temporal correlations and characteristic decay scales. Our results establish self-attention as a powerful mechanism for learning effective reduced dynamics in chaotic many-body systems.
- Abstract(参考訳): 微積分方程式はマルコフ方程式であるが、集合可観測物は初期条件や予測誤差に対して強い記憶と指数的な感度を示す。
本稿では,自己注意に基づくトランスフォーマー・フレームワークが,時系列データから直接,このようなカオス的集団力学をモデル化するための効果的なアプローチを提供することを示す。
長距離時間相関を選択的に重み付けすることで、変圧器は従来の再帰的アーキテクチャの本質的な制限を克服する非マルコフ的還元記述を学習する。
実演として1次元半古典的ホルシュタインモデルについて検討し、相互作用クエンチは電荷-密度-波の秩序パラメータの強い非線形およびカオスダイナミクスを誘導する。
ポイントワイズ予測は長い時間で必然的に発散するが、変換器は時間的相関や特徴的な崩壊スケールを含むカオスの統計的「気候」を忠実に再現する。
本研究は, カオス多体システムにおいて, 効果的還元力学を学習するための強力なメカニズムとして, 自己意識を確立した。
関連論文リスト
- A Mechanistic Analysis of Transformers for Dynamical Systems [4.590170084532207]
動的データに適用した場合の単一層変換器の表現能力と限界について検討する。
線形系に対しては、ソフトマックスアテンションによって課される凸性制約が、表現できる力学のクラスを根本的に制限していることが示される。
部分可観測性を持つ非線形系では、注意は適応的な遅延埋め込み機構として機能する。
論文 参考訳(メタデータ) (2025-12-24T11:21:07Z) - UnCLe: Towards Scalable Dynamic Causal Discovery in Non-linear Temporal Systems [4.9593603893289115]
スケーラブルな動的因果探索のための新しい深層学習手法UnCLeを提案する。
UnCLeはUncouplerとRecouplerの2つのネットワークを使って、入力時系列を意味表現に分解する。
時間的摂動によって引き起こされるデータポイントワイズ予測誤差を解析することにより、動的因果影響を推定する。
論文 参考訳(メタデータ) (2025-11-05T04:34:31Z) - StFT: Spatio-temporal Fourier Transformer for Long-term Dynamics Prediction [10.64762092324374]
本稿では,自動回帰時変変換器(FTStours)を提案する。
FTStoursは、マクロスケールとマイクロスペーススケールの両方にわたる基礎となるダイナミクスをキャプチャする。
3つのベンチマークデータセットで行った評価は、最先端のML手法に対する我々のアプローチの利点を示している。
論文 参考訳(メタデータ) (2025-03-14T22:04:03Z) - Neural Persistence Dynamics [8.197801260302642]
時間発展する点雲のトポロジにおける力学を学習する問題を考察する。
提案したモデル - $textitNeural Persistence Dynamics$ - は、パラメータ回帰タスクの多種多様なセットで最先端のパフォーマンスを大幅に上回る。
論文 参考訳(メタデータ) (2024-05-24T17:20:18Z) - Attractor Memory for Long-Term Time Series Forecasting: A Chaos Perspective [63.60312929416228]
textbftextitAttraosはカオス理論を長期時系列予測に取り入れている。
本研究では,AttraosがPatchTSTと比較して,パラメータの12分の1しか持たない主流データセットやカオスデータセットにおいて,LTSF法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-02-18T05:35:01Z) - Dynamics with autoregressive neural quantum states: application to
critical quench dynamics [41.94295877935867]
本稿では、量子系の長時間のダイナミクスを安定的に捉えるための代替の汎用スキームを提案する。
二次元量子イジングモデルにおけるキブル・ズレーク機構の解明により,時間依存性のクエンチ力学にこのスキームを適用した。
論文 参考訳(メタデータ) (2022-09-07T15:50:00Z) - Bistability and time crystals in long-ranged directed percolation [0.0]
本稿では,長距離指向パーコレーションのバイスタブルな位相を生じさせる,パワー-ロー相互作用を持つ単純なセルオートマトンを提案する。
したがって、我々の研究は古典的な離散時間結晶相の確かな例を提供する。
論文 参考訳(メタデータ) (2020-04-27T18:00:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。