論文の概要: A Hamiltonian driven Geometric Construction of Neural Networks on the Lognormal Statistical Manifold
- arxiv url: http://arxiv.org/abs/2509.25778v1
- Date: Tue, 30 Sep 2025 04:47:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-01 14:45:00.018951
- Title: A Hamiltonian driven Geometric Construction of Neural Networks on the Lognormal Statistical Manifold
- Title(参考訳): 対数正規統計多様体上のニューラルネットワークのハミルトニアン駆動幾何構成
- Authors: Prosper Rosaire Mama Assandje, Teumsa Aboubakar, Dongho Joseph, Takemi Nakamura,
- Abstract要約: 本稿では,統計多様体に基づくニューラルネットワーク構築手法を提案する。
この構成は、この多様体上の勾配フローに相当するハミルトン系によって駆動される。
提案手法は,基礎となるパラメータ空間の微分幾何学に基づく学習システム構築のための新しいパラダイムを提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Bridging information geometry with machine learning, this paper presents a method for constructing neural networks intrinsically on statistical manifolds. We demonstrate this approach by formulating a neural network architecture directly on the lognormal statistical manifold. The construction is driven by the Hamiltonian system that is equivalent to the gradient flow on this manifold. First, we define the network's input values using the coordinate system of this Hamiltonian dynamics, naturally embedded in the Poincare disk. The core of our contribution lies in the derivation of the network's components from geometric principles: the rotation component of the synaptic weight matrix is determined by the Lie group action of SU(1,1) on the disk, while the activation function emerges from the symplectic structure of the system. We subsequently obtain the complete weight matrix, including its translation vector, and the resulting output values. This work shows that the lognormal manifold can be seamlessly viewed as a neural manifold, with its geometric properties dictating a unique and interpretable neural network structure. The proposed method offers a new paradigm for building learning systems grounded in the differential geometry of their underlying parameter spaces.
- Abstract(参考訳): 本稿では,統計多様体に基づくニューラルネットワーク構築手法を提案する。
我々は、対数正規統計多様体上でニューラルネットワークアーキテクチャを直接定式化することで、このアプローチを実証する。
この構成は、この多様体上の勾配フローに相当するハミルトン系によって駆動される。
まず、このハミルトン力学の座標系を用いてネットワークの入力値を定義し、自然にポインケアディスクに埋め込まれる。
シナプス重み行列の回転成分は円板上のSU(1,1)のリー群作用によって決定され、活性化関数は系のシンプレクティック構造から現れる。
その後、その変換ベクトルを含む全重み行列と結果の出力値を得る。
この研究は、対数正規多様体が一意で解釈可能なニューラルネットワーク構造を規定する幾何学的性質を持つニューラルネットワーク多様体としてシームレスに見ることができることを示している。
提案手法は,基礎となるパラメータ空間の微分幾何学に基づく学習システムを構築するための新しいパラダイムを提供する。
関連論文リスト
- Neural Feature Geometry Evolves as Discrete Ricci Flow [5.645823801022895]
深層ニューラルネットワークは入力データ多様体の複雑な幾何学的変換を通じて特徴表現を学習する。
離散幾何学のレンズによる神経特徴幾何学について検討する。
フィードフォワードニューラルネットワークにおいて,非線形アクティベーションが特徴幾何を形成する上で重要な役割を担っていることを示す。
論文 参考訳(メタデータ) (2025-09-26T13:57:46Z) - SpaceMesh: A Continuous Representation for Learning Manifold Surface Meshes [61.110517195874074]
本稿では,ニューラルネットワークの出力として,複雑な接続性を持つ多様体多角形メッシュを直接生成する手法を提案する。
私たちの重要なイノベーションは、各メッシュで連続的な遅延接続空間を定義することです。
アプリケーションでは、このアプローチは生成モデルから高品質な出力を得るだけでなく、メッシュ修復のような挑戦的な幾何処理タスクを直接学習することを可能にする。
論文 参考訳(メタデータ) (2024-09-30T17:59:03Z) - A quatum inspired neural network for geometric modeling [14.214656118952178]
本稿では,MPSベースのメッセージパッシング戦略を提案する。
本手法は,多体関係を効果的にモデル化し,平均場近似を抑える。
これは幾何学的GNNに固有の標準メッセージパッシングおよびレイヤ集約モジュールをシームレスに置き換える。
論文 参考訳(メタデータ) (2024-01-03T15:59:35Z) - A Hitchhiker's Guide to Geometric GNNs for 3D Atomic Systems [87.30652640973317]
原子系の計算モデリングの最近の進歩は、これらを3次元ユークリッド空間のノードとして埋め込まれた原子を含む幾何学的グラフとして表現している。
Geometric Graph Neural Networksは、タンパク質構造予測から分子シミュレーション、物質生成まで、幅広い応用を駆動する機械学習アーキテクチャとして好まれている。
本稿では,3次元原子システムのための幾何学的GNNの分野について,包括的で自己完結した概要を述べる。
論文 参考訳(メタデータ) (2023-12-12T18:44:19Z) - Applications of Machine Learning to Modelling and Analysing Dynamical
Systems [0.0]
本稿では,既存のハミルトンニューラルネットワーク構造を適応型シンプレクティックリカレントニューラルネットワークに組み合わせたアーキテクチャを提案する。
このアーキテクチャは、ハミルトニアン力学を予測する際に、これまで提案されていたニューラルネットワークよりも大幅に優れていた。
本手法は, 単一パラメータポテンシャルに対して有効であり, 長期間にわたって正確な予測を行うことができることを示す。
論文 参考訳(メタデータ) (2023-07-22T19:04:17Z) - Permutation Equivariant Neural Functionals [92.0667671999604]
この研究は、他のニューラルネットワークの重みや勾配を処理できるニューラルネットワークの設計を研究する。
隠れた層状ニューロンには固有の順序がないため, 深いフィードフォワードネットワークの重みに生じる置換対称性に着目する。
実験の結果, 置換同変ニューラル関数は多種多様なタスクに対して有効であることがわかった。
論文 参考訳(メタデータ) (2023-02-27T18:52:38Z) - A singular Riemannian geometry approach to Deep Neural Networks II.
Reconstruction of 1-D equivalence classes [78.120734120667]
入力空間における出力多様体内の点の事前像を構築する。
我々は、n-次元実空間から(n-1)-次元実空間へのニューラルネットワークマップの場合の簡易性に焦点をあてる。
論文 参考訳(メタデータ) (2021-12-17T11:47:45Z) - Hyperbolic Neural Networks++ [66.16106727715061]
ニューラルネットワークの基本成分を1つの双曲幾何モデル、すなわちポアンカーの球モデルで一般化する。
実験により, 従来の双曲成分と比較してパラメータ効率が優れ, ユークリッド成分よりも安定性と性能が優れていた。
論文 参考訳(メタデータ) (2020-06-15T08:23:20Z) - Equivalence in Deep Neural Networks via Conjugate Matrix Ensembles [0.0]
ディープラーニングアーキテクチャの等価性を検出するための数値解析手法を開発した。
経験的証拠は、ニューラルアーキテクチャのスペクトル密度とそれに対応する共役円形アンサンブルの差が消えているという現象を裏付けている。
論文 参考訳(メタデータ) (2020-06-14T12:34:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。