論文の概要: Symplectic Reservoir Representation of Legendre Dynamics
- arxiv url: http://arxiv.org/abs/2512.19409v1
- Date: Mon, 22 Dec 2025 14:04:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-23 18:54:32.779305
- Title: Symplectic Reservoir Representation of Legendre Dynamics
- Title(参考訳): 伝説力学のシンプレクティック貯留層表現
- Authors: Robert Simon Fong, Gouhei Tanaka, Kazuyuki Aihara,
- Abstract要約: 物理学において、シンプレクティシティのようなハミルトン系の保存則は長期的な安定性を保証する。
ここでは、表現そのものがハミルトン力学の意味でシンプレクティック保存法に従うことが何を意味するのかを問う。
我々の主定理は、すべてのSR更新がこの正規形式を持ち、したがってルジャンドルグラフをルジャンドルグラフへ輸送し、各時点におけるルジャンドル双対性を保存することを示しています。
全体として、SRは幾何学的に制約されたルジャンドル保存表現マップを実装し、シンプレクティック幾何学とハミルトン力学を直接表現レベルで注入する。
- 参考スコア(独自算出の注目度): 3.2385654231730174
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern learning systems act on internal representations of data, yet how these representations encode underlying physical or statistical structure is often left implicit. In physics, conservation laws of Hamiltonian systems such as symplecticity guarantee long-term stability, and recent work has begun to hard-wire such constraints into learning models at the loss or output level. Here we ask a different question: what would it mean for the representation itself to obey a symplectic conservation law in the sense of Hamiltonian mechanics? We express this symplectic constraint through Legendre duality: the pairing between primal and dual parameters, which becomes the structure that the representation must preserve. We formalize Legendre dynamics as stochastic processes whose trajectories remain on Legendre graphs, so that the evolving primal-dual parameters stay Legendre dual. We show that this class includes linear time-invariant Gaussian process regression and Ornstein-Uhlenbeck dynamics. Geometrically, we prove that the maps that preserve all Legendre graphs are exactly symplectomorphisms of cotangent bundles of the form "cotangent lift of a base diffeomorphism followed by an exact fibre translation". Dynamically, this characterization leads to the design of a Symplectic Reservoir (SR), a reservoir-computing architecture that is a special case of recurrent neural network and whose recurrent core is generated by Hamiltonian systems that are at most linear in the momentum. Our main theorem shows that every SR update has this normal form and therefore transports Legendre graphs to Legendre graphs, preserving Legendre duality at each time step. Overall, SR implements a geometrically constrained, Legendre-preserving representation map, injecting symplectic geometry and Hamiltonian mechanics directly at the representational level.
- Abstract(参考訳): 現代の学習システムはデータの内部表現に作用するが、これらの表現が基礎となる物理構造や統計構造をエンコードする方法はしばしば暗黙に残されている。
物理学において、シンプレクティシティのようなハミルトン系の保存法則は長期的な安定性を保証し、最近の研究は、そのような制約を損失や出力レベルでの学習モデルに固定し始めている。
ハミルトン力学の意味でシンプレクティック保存法に従うことは、表現そのものにとって何を意味するのか?
我々は、このシンプレクティック制約をルジャンドル双対性(英語版)を通して表現する: 原始パラメータと双対パラメータのペアリングは、表現が保存しなければならない構造となる。
我々は、ルジャンドル力学を、ルジャンドルグラフ上の軌道が残る確率過程として定式化し、進化する原始双対パラメータがルジャンドル双対のままとなるようにした。
このクラスは、線形時間不変ガウス過程回帰とオルンシュタイン・ウレンベック力学を含むことを示す。
幾何学的には、すべてのルジャンドルグラフを保存する写像は「基底微分同相写像の余接リフトとそれに続く正確なファイバー変換」という形の余接バンドルのちょうどシンプレクティック同相写像であることが証明される。
動的に、この特性はシンプレクティック貯水池 (SR) の設計につながります。これは、リカレントニューラルネットワークの特別なケースであり、そのリカレントコアは運動量において最も線形なハミルトン系によって生成されます。
我々の主定理は、すべてのSR更新がこの正規形式を持ち、したがってルジャンドルグラフをルジャンドルグラフに転送し、各時点におけるルジャンドル双対性を保存することを示しています。
全体として、SRは幾何学的に制約されたルジャンドル保存表現マップを実装し、シンプレクティック幾何学とハミルトン力学を直接表現レベルで注入する。
関連論文リスト
- Learning Latent Graph Geometry via Fixed-Point Schrödinger-Type Activation: A Theoretical Study [1.1745324895296467]
我々は、学習された潜在グラフ上の散逸的シュリンガー型ダイナミクスの定常状態として内部表現が進化するニューラルアーキテクチャの統一的理論的枠組みを開発する。
我々は、平衡の存在、一意性、滑らかな依存を証明し、力学がノルム保存ランダウ-リフシッツ流にブロッホ写像の下で等価であることを示す。
結果として得られるモデルクラスは、固定点 Schr"odinger 型のアクティベーションを通して潜在グラフ幾何学を学ぶためのコンパクトで幾何学的に解釈可能で解析的に抽出可能な基礎を提供する。
論文 参考訳(メタデータ) (2025-07-27T00:35:15Z) - Why Neural Network Can Discover Symbolic Structures with Gradient-based Training: An Algebraic and Geometric Foundation for Neurosymbolic Reasoning [73.18052192964349]
我々は、連続的なニューラルネットワークトレーニングのダイナミックスから、離散的なシンボル構造が自然に現れるかを説明する理論的枠組みを開発する。
ニューラルパラメータを測度空間に上げ、ワッサーシュタイン勾配流としてモデル化することにより、幾何的制約の下では、パラメータ測度 $mu_t$ が2つの同時現象となることを示す。
論文 参考訳(メタデータ) (2025-06-26T22:40:30Z) - SeaDAG: Semi-autoregressive Diffusion for Conditional Directed Acyclic Graph Generation [83.52157311471693]
方向性非巡回グラフ(DAG)の条件生成のための半自己回帰拡散モデルSeaDAGを紹介する。
グローバルグラフ構造を欠いた従来の自己回帰生成とは異なり,本手法は拡散ステップ毎に完全なグラフ構造を保持する。
本研究では,現実的なDAGを生成する拡散モデルの能力を高めるために,条件損失を伴うグラフ条件学習を明示的に訓練する。
論文 参考訳(メタデータ) (2024-10-21T15:47:03Z) - Port-Hamiltonian Architectural Bias for Long-Range Propagation in Deep Graph Networks [55.227976642410766]
グラフ内の情報拡散のダイナミクスは、グラフ表現学習に大きな影響を及ぼす重要なオープン問題である。
そこで我々は(ポート-)Hamiltonian Deep Graph Networksを紹介した。
我々は,非散逸的長距離伝播と非保守的行動の両方を,単一の理論的・実践的な枠組みで調整する。
論文 参考訳(メタデータ) (2024-05-27T13:36:50Z) - SEGNO: Generalizing Equivariant Graph Neural Networks with Physical
Inductive Biases [66.61789780666727]
等変性を維持しながら, 2階連続性をGNNに組み込む方法を示す。
また、SEGNOに関する理論的知見も提供し、隣接する状態間の一意の軌跡を学習できることを強調している。
我々のモデルは最先端のベースラインよりも大幅に改善されている。
論文 参考訳(メタデータ) (2023-08-25T07:15:58Z) - Quantum Scar States in Coupled Random Graph Models [0.0]
我々は、基底状態のグレイ符号数を用いてハミルトン行列を構成することにより、$L$サイトPXP-モデルのヒルベルト空間接続を解析する。
エネルギー固有状態の絡み合い構造を研究し、弱絡み状態の2つのクラスを見つける。
論文 参考訳(メタデータ) (2023-05-14T11:02:10Z) - Understanding convolution on graphs via energies [23.18124653469668]
グラフネットワーク(GNN)は一般的にメッセージパッシングによって動作し、隣人から受信した情報に基づいてノードの状態が更新される。
ほとんどのメッセージパッシングモデルはグラフ畳み込みとして機能し、エッジ上に伝播する前に共有された線形変換によって特徴が混合される。
ノード分類タスクでは、グラフの畳み込みには2つの制限がある。
論文 参考訳(メタデータ) (2022-06-22T11:45:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。