論文の概要: ManifoldFormer: Geometric Deep Learning for Neural Dynamics on Riemannian Manifolds
- arxiv url: http://arxiv.org/abs/2511.16828v1
- Date: Thu, 20 Nov 2025 22:19:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-24 18:08:18.821942
- Title: ManifoldFormer: Geometric Deep Learning for Neural Dynamics on Riemannian Manifolds
- Title(参考訳): ManifoldFormer: リーマン多様体上のニューラルダイナミクスのための幾何学的深層学習
- Authors: Yihang Fu, Lifang He, Qingyu Chen,
- Abstract要約: 既存のEEG基盤モデルは、主にユークリッド空間における一般的な時系列として神経信号を扱う。
MandelaFormerは、ニューラルネットワーク表現を明示的に学習する新しい幾何学的ディープラーニングフレームワークを通じて、この制限に対処する。
- 参考スコア(独自算出の注目度): 11.275535457399625
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing EEG foundation models mainly treat neural signals as generic time series in Euclidean space, ignoring the intrinsic geometric structure of neural dynamics that constrains brain activity to low-dimensional manifolds. This fundamental mismatch between model assumptions and neural geometry limits representation quality and cross-subject generalization. ManifoldFormer addresses this limitation through a novel geometric deep learning framework that explicitly learns neural manifold representations. The architecture integrates three key innovations: a Riemannian VAE for manifold embedding that preserves geometric structure, a geometric Transformer with geodesic-aware attention mechanisms operating directly on neural manifolds, and a dynamics predictor leveraging neural ODEs for manifold-constrained temporal evolution. Extensive evaluation across four public datasets demonstrates substantial improvements over state-of-the-art methods, with 4.6-4.8% higher accuracy and 6.2-10.2% higher Cohen's Kappa, while maintaining robust cross-subject generalization. The geometric approach reveals meaningful neural patterns consistent with neurophysiological principles, establishing geometric constraints as essential for effective EEG foundation models.
- Abstract(参考訳): 既存のEEG基盤モデルは、ニューラルネットワークをユークリッド空間における一般的な時系列として扱い、低次元多様体に対する脳の活動を制限する神経力学の固有の幾何学構造を無視している。
このモデル仮定と神経幾何学の基本的なミスマッチは、表現の質とオブジェクト間の一般化を制限している。
ManifoldFormerは、ニューラルネットワーク表現を明示的に学習する新しい幾何学的ディープラーニングフレームワークを通じて、この制限に対処する。
このアーキテクチャは、幾何学的構造を保存する多様体埋め込みのためのリーマンVAEと、ニューラル多様体に直接作用する測地的注意機構を持つ幾何学変換器と、多様体に制約された時間的進化のためにニューラルODEを利用するダイナミクス予測器の3つの重要なイノベーションを統合している。
4つの公開データセットにわたる広範囲な評価は、最先端の手法よりも大幅に改善され、精度は4.6-4.8%、Cohen's Kappaは6.2-10.2%向上した。
幾何学的アプローチは、神経生理学的原理と整合した有意義な神経パターンを明らかにし、幾何学的制約を効果的な脳波基礎モデルに不可欠なものとして確立する。
関連論文リスト
- The Neural Differential Manifold: An Architecture with Explicit Geometric Structure [8.201374511929538]
本稿では,その基本設計に幾何学的構造を明示的に組み込んだニューラルネットワークアーキテクチャであるニューラル微分マニフォールド(NDM)を紹介する。
我々は、より効率的な最適化の可能性、継続学習の強化、科学的発見と制御可能な生成モデルへの応用など、このアプローチの理論的利点を分析する。
論文 参考訳(メタデータ) (2025-10-29T02:24:27Z) - Learning Hamiltonian Dynamics at Scale: A Differential-Geometric Approach [15.500592651570384]
本稿では,ハミルトニアン力学の保存則とモデル次数減少のスケーラビリティを結合した,物理に着想を得た新しいニューラルネットワークを提案する。
実験により, RO-HNNは複雑な高次元力学の物理的に一貫性があり, 安定であり, 一般化可能な予測を提供することを示した。
論文 参考訳(メタデータ) (2025-09-29T11:36:35Z) - Geometry-Aware Spiking Graph Neural Network [24.920334588995072]
本稿では,スパイクに基づくニューラルダイナミクスを適応表現学習と統合するGeometry-Aware Spiking Graph Neural Networkを提案する。
複数のベンチマーク実験により、GSGはユークリッドSNNと多様体ベースGNNと比較して精度、堅牢性、エネルギー効率が優れていることが示された。
論文 参考訳(メタデータ) (2025-08-09T02:52:38Z) - Geometric Trajectory Diffusion Models [58.853975433383326]
生成モデルは3次元幾何学システムの生成において大きな可能性を示してきた。
既存のアプローチは静的構造のみで動作し、物理系は常に自然界において動的であるという事実を無視する。
本研究では3次元軌跡の時間分布をモデル化する最初の拡散モデルである幾何軌道拡散モデル(GeoTDM)を提案する。
論文 参考訳(メタデータ) (2024-10-16T20:36:41Z) - A singular Riemannian Geometry Approach to Deep Neural Networks III. Piecewise Differentiable Layers and Random Walks on $n$-dimensional Classes [49.32130498861987]
本稿ではReLUのような非微分可能活性化関数の事例について検討する。
最近の2つの研究は、ニューラルネットワークを研究するための幾何学的枠組みを導入した。
本稿では,画像の分類と熱力学問題に関する数値実験を行った。
論文 参考訳(メタデータ) (2024-04-09T08:11:46Z) - A Hitchhiker's Guide to Geometric GNNs for 3D Atomic Systems [87.30652640973317]
原子系の計算モデリングの最近の進歩は、これらを3次元ユークリッド空間のノードとして埋め込まれた原子を含む幾何学的グラフとして表現している。
Geometric Graph Neural Networksは、タンパク質構造予測から分子シミュレーション、物質生成まで、幅広い応用を駆動する機械学習アーキテクチャとして好まれている。
本稿では,3次元原子システムのための幾何学的GNNの分野について,包括的で自己完結した概要を述べる。
論文 参考訳(メタデータ) (2023-12-12T18:44:19Z) - GeoMol: Torsional Geometric Generation of Molecular 3D Conformer
Ensembles [60.12186997181117]
分子グラフからの分子の3Dコンホメーラーアンサンブルの予測は、化学情報学と薬物発見の領域において重要な役割を担っている。
既存の生成モデルは、重要な分子幾何学的要素のモデリングの欠如を含むいくつかの欠点がある。
エンド・ツー・エンド、非自己回帰、SE(3)不変の機械学習手法であるGeoMolを提案し、3Dコンバータを生成する。
論文 参考訳(メタデータ) (2021-06-08T14:17:59Z) - Hyperbolic Neural Networks++ [66.16106727715061]
ニューラルネットワークの基本成分を1つの双曲幾何モデル、すなわちポアンカーの球モデルで一般化する。
実験により, 従来の双曲成分と比較してパラメータ効率が優れ, ユークリッド成分よりも安定性と性能が優れていた。
論文 参考訳(メタデータ) (2020-06-15T08:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。