論文の概要: Identification of Mean-Field Dynamics using Transformers
- arxiv url: http://arxiv.org/abs/2410.16295v1
- Date: Sun, 06 Oct 2024 19:47:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-28 17:07:38.642274
- Title: Identification of Mean-Field Dynamics using Transformers
- Title(参考訳): 変圧器を用いた平均場ダイナミクスの同定
- Authors: Shiba Biswal, Karthik Elamvazhuthi, Rishi Sonthalia,
- Abstract要約: 本稿では, 粒子の挙動を示す粒子系の平均場ダイナミクスを近似するために, 変圧器アーキテクチャを用いた手法について検討する。
具体的には、有限次元変圧器が粒子系を支配する有限次元ベクトル場を効果的に近似できるなら、この変圧器の期待出力は無限次元平均場ベクトル場に対して良い近似を与える。
- 参考スコア(独自算出の注目度): 3.8916312075738273
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper investigates the use of transformer architectures to approximate the mean-field dynamics of interacting particle systems exhibiting collective behavior. Such systems are fundamental in modeling phenomena across physics, biology, and engineering, including gas dynamics, opinion formation, biological networks, and swarm robotics. The key characteristic of these systems is that the particles are indistinguishable, leading to permutation-equivariant dynamics. We demonstrate that transformers, which inherently possess permutation equivariance, are well-suited for approximating these dynamics. Specifically, we prove that if a finite-dimensional transformer can effectively approximate the finite-dimensional vector field governing the particle system, then the expected output of this transformer provides a good approximation for the infinite-dimensional mean-field vector field. Leveraging this result, we establish theoretical bounds on the distance between the true mean-field dynamics and those obtained using the transformer. We validate our theoretical findings through numerical simulations on the Cucker-Smale model for flocking, and the mean-field system for training two-layer neural networks.
- Abstract(参考訳): 本稿では, 相互作用粒子系の平均場ダイナミクスを近似するために, 変圧器アーキテクチャを用いて検討する。
このようなシステムは、ガス力学、意見形成、生物学的ネットワーク、群ロボットなど、物理学、生物学、工学にまたがる現象をモデル化する上で基本的なものである。
これらの系の鍵となる特徴は、粒子が区別不可能であり、置換-等変ダイナミクスをもたらすことである。
変圧器は本質的に置換同値であり、これらの力学を近似するのに適していることを示す。
具体的には、有限次元変圧器が粒子系を支配する有限次元ベクトル場を効果的に近似できるなら、この変圧器の期待出力は無限次元平均場ベクトル場に対して良い近似を与える。
この結果を利用して、実平均場力学と変圧器を用いた距離に関する理論的境界を確立する。
フラッキングのためのCucker-Smaleモデルと2層ニューラルネットワークをトレーニングするための平均場システムに関する数値シミュレーションにより理論的知見を検証する。
関連論文リスト
- Neural ODE Transformers: Analyzing Internal Dynamics and Adaptive Fine-tuning [30.781578037476347]
高度にフレキシブルな非自律型ニューラル常微分方程式(ODE)を用いたトランスフォーマーアーキテクチャのモデリング手法を提案する。
提案モデルでは,ニューラルネットワークによる注目度とフィードフォワードブロックの重みをパラメータ化し,これらの重みを連続層インデックスの関数として表現する。
我々のニューラルODE変換器は、さまざまな構成やデータセットにわたるバニラ変換器に匹敵するパフォーマンスを示す。
論文 参考訳(メタデータ) (2025-03-03T09:12:14Z) - Interpreting Affine Recurrence Learning in GPT-style Transformers [54.01174470722201]
インコンテキスト学習により、GPTスタイルのトランスフォーマーは、重みを変更することなく推論中に一般化できる。
本稿では,ICLタスクとしてアフィンの再発を学習し,予測する能力に着目する。
実験的手法と理論的手法の両方を用いてモデルの内部動作を分析する。
論文 参考訳(メタデータ) (2024-10-22T21:30:01Z) - Transformers from Diffusion: A Unified Framework for Neural Message Passing [79.9193447649011]
メッセージパッシングニューラルネットワーク(MPNN)は、デファクトクラスのモデルソリューションとなっている。
本稿では,拡散の誘導バイアスとエネルギーの層的制約を統合するエネルギー制約拡散モデルを提案する。
これらの知見に基づいて、我々はTransformer (DIFFormer)と呼ばれる新しいタイプのメッセージパッシングモデルを考案した。
論文 参考訳(メタデータ) (2024-09-13T17:54:41Z) - Clustering in pure-attention hardmax transformers and its role in sentiment analysis [0.0]
ハードマックス自己アテンションと正規化サブ層を有する変圧器の挙動を, 層数が無限大になる傾向があるため, 厳密に特徴づける。
変換器は、リーダーと呼ばれる特別な点によって決定されるクラスター平衡にインプット的に収束することを示す。
そして、この理論的理解を利用して、完全に解釈可能なトランスフォーマーモデルを用いて、言語処理から感情分析問題を解く。
論文 参考訳(メタデータ) (2024-06-26T16:13:35Z) - Dynamical Mean-Field Theory of Self-Attention Neural Networks [0.0]
トランスフォーマーベースのモデルは、様々な領域で例外的な性能を示している。
動作方法や期待されるダイナミクスについてはほとんど分かっていない。
非平衡状態における非対称ホップフィールドネットワークの研究に手法を用いる。
論文 参考訳(メタデータ) (2024-06-11T13:29:34Z) - Beyond Scaling Laws: Understanding Transformer Performance with Associative Memory [11.3128832831327]
Transformerモデルのサイズが大きくなると、パフォーマンスが向上するとは限らない。
モデルがトレーニングサンプルを記憶するにつれて、一般化能力が向上する。
本稿では,変圧器に基づく言語モデルの記憶過程と性能動態に光を当てる理論的枠組みを提案する。
論文 参考訳(メタデータ) (2024-05-14T15:48:36Z) - Understanding the Expressive Power and Mechanisms of Transformer for Sequence Modeling [10.246977481606427]
ドット積自己注意などのトランスフォーマーの異なる成分が表現力に影響を及ぼすメカニズムについて検討する。
本研究では,トランスフォーマーにおける臨界パラメータの役割を明らかにする。
論文 参考訳(メタデータ) (2024-02-01T11:43:13Z) - Supercharging Graph Transformers with Advective Diffusion [28.40109111316014]
本稿では,この課題に対処するために,物理に着想を得たグラフトランスモデルであるAdvDIFFormerを提案する。
本稿では,AdvDIFFormerが位相シフトによる一般化誤差を制御できることを示す。
経験的に、このモデルは情報ネットワーク、分子スクリーニング、タンパク質相互作用の様々な予測タスクにおいて優位性を示す。
論文 参考訳(メタデータ) (2023-10-10T08:40:47Z) - Approximation and Estimation Ability of Transformers for
Sequence-to-Sequence Functions with Infinite Dimensional Input [50.83356836818667]
無限次元入力を持つシーケンス・ツー・シーケンス関数として変換器の近似と推定能力について検討する。
我々の理論的結果は、高次元データに対する変換器の実用的成功を支持する。
論文 参考訳(メタデータ) (2023-05-30T02:44:49Z) - Transformer with Implicit Edges for Particle-based Physics Simulation [135.77656965678196]
Implicit Edges (TIE) を用いたトランスフォーマーは、素粒子相互作用のリッチなセマンティクスをエッジフリーでキャプチャする。
様々な複雑さと素材の多様な領域におけるモデルの評価を行った。
論文 参考訳(メタデータ) (2022-07-22T03:45:29Z) - NeuroFluid: Fluid Dynamics Grounding with Particle-Driven Neural
Radiance Fields [65.07940731309856]
深層学習は流体のような複雑な粒子系の物理力学をモデル化する大きな可能性を示している。
本稿では,流体力学グラウンドリング(fluid dynamics grounding)として知られる,部分的に観測可能なシナリオについて考察する。
我々はNeuroFluidという2段階の異なるネットワークを提案する。
初期形状、粘度、密度が異なる流体の基礎物理学を合理的に推定することが示されている。
論文 参考訳(メタデータ) (2022-03-03T15:13:29Z) - Learning stochastic dynamics and predicting emergent behavior using
transformers [0.0]
ニューラルネットワークは,システムの1つの動的軌跡を観察することにより,システムの動的規則を学習可能であることを示す。
我々はモデルの1つの軌道上でトランスフォーマーと呼ばれるニューラルネットワークを訓練する。
変換器は、速度の明示的な列挙や構成空間の粗粒化なしに観察から動的規則を学習する柔軟性を持つ。
論文 参考訳(メタデータ) (2022-02-17T15:27:21Z) - Neural-Network Quantum States for Periodic Systems in Continuous Space [66.03977113919439]
我々は、周期性の存在下での強い相互作用を持つシステムのシミュレーションのために、神経量子状態の族を紹介する。
一次元系では、基底状態エネルギーと粒子の放射分布関数を非常に正確に推定する。
二つの次元において基底状態エネルギーの優れた推定値を得るが、これはより伝統的な手法から得られる結果に匹敵する。
論文 参考訳(メタデータ) (2021-12-22T15:27:30Z) - Equivariant vector field network for many-body system modeling [65.22203086172019]
Equivariant Vector Field Network (EVFN) は、新しい同変層と関連するスカラー化およびベクトル化層に基づいて構築されている。
シミュレーションされたニュートン力学系の軌跡を全観測データと部分観測データで予測する手法について検討した。
論文 参考訳(メタデータ) (2021-10-26T14:26:25Z) - Topographic VAEs learn Equivariant Capsules [84.33745072274942]
本稿では, 地理的に整理された潜伏変数を用いた深部生成モデルを効率的に学習するための新しい手法であるTopographic VAEを紹介する。
このようなモデルでは,MNIST上での桁数クラス,幅,スタイルなどの健全な特徴に応じて,その活性化を組織化することが実際に学べることが示される。
我々は、既存の群同変ニューラルネットワークの能力を拡張して、複素変換に近似した同値性を示す。
論文 参考訳(メタデータ) (2021-09-03T09:25:57Z) - Electric circuit emulation of topological transitions driven by quantum
statistics [0.0]
粒子の量子統計によって駆動される2粒子相互作用系のトポロジカル遷移を予測する。
玩具モデルとして、分数量子統計に従う2つの正準励起を持つ拡張1次元ハバードモデルについて検討する。
共振回路を用いたエニオン対の固有モードと固有エネルギーをエミュレートする厳密な手法を開発した。
論文 参考訳(メタデータ) (2021-08-23T22:34:52Z) - Dynamics of two-dimensional open quantum lattice models with tensor
networks [0.0]
熱力学的極限に直接適用可能な無限射影ペア演算子(iPEPO)アンサッツに基づくテンソルネットワーク法を開発した。
非平均場限界における散逸的逆量子イジングと駆動散逸型ハードコアボソンモデルを考える。
提案手法は,既存の手法の適用範囲をはるかに超えながら,現在の実験に利用できる制度を研究できる。
論文 参考訳(メタデータ) (2020-12-22T18:24:20Z) - Variational Transformers for Diverse Response Generation [71.53159402053392]
変分変換器(VT)は、変分自己注意フィードフォワードシーケンスモデルである。
VTはトランスフォーマーの並列化性と大域的受容場計算とCVAEの変動特性を組み合わせる。
本稿では,1)大域潜伏変数を用いた談話レベルの多様性のモデル化,2)細粒潜伏変数の列によるトランスフォーマーデコーダの拡張,の2種類のVTについて検討する。
論文 参考訳(メタデータ) (2020-03-28T07:48:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。