論文の概要: Persistent Topological Structures and Cohomological Flows as a Mathematical Framework for Brain-Inspired Representation Learning
- arxiv url: http://arxiv.org/abs/2512.08241v1
- Date: Tue, 09 Dec 2025 04:48:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-10 22:28:07.811951
- Title: Persistent Topological Structures and Cohomological Flows as a Mathematical Framework for Brain-Inspired Representation Learning
- Title(参考訳): 脳に触発された表現学習のための数学的枠組みとしての持続的位相構造とコホモロジーフロー
- Authors: Preksha Girish, Rachana Mysore, Mahanthesha U, Shrey Kumar, Shipra Prashant,
- Abstract要約: 本稿では,脳に触発された表現学習のための数学的に厳密な枠組みを提案する。
代数トポロジーと微分幾何学を統合し、勾配に基づく学習を一般化するコホモロジー作用素を構成する。
実験結果から, このモデルでは, グラフニューラルおよび多様体に基づくディープアーキテクチャと比較して, 優れた多様体の整合性と耐雑音性が得られることが示された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents a mathematically rigorous framework for brain-inspired representation learning founded on the interplay between persistent topological structures and cohomological flows. Neural computation is reformulated as the evolution of cochain maps over dynamic simplicial complexes, enabling representations that capture invariants across temporal, spatial, and functional brain states. The proposed architecture integrates algebraic topology with differential geometry to construct cohomological operators that generalize gradient-based learning within a homological landscape. Synthetic data with controlled topological signatures and real neural datasets are jointly analyzed using persistent homology, sheaf cohomology, and spectral Laplacians to quantify stability, continuity, and structural preservation. Empirical results demonstrate that the model achieves superior manifold consistency and noise resilience compared to graph neural and manifold-based deep architectures, establishing a coherent mathematical foundation for topology-driven representation learning.
- Abstract(参考訳): 本稿では,永続的なトポロジ構造とコホモロジカルフローの相互作用を基礎とした,脳に触発された表現学習のための数学的に厳密な枠組みを提案する。
ニューラル計算は、動的単純錯体上のコチェーンマップの進化として再構成され、時間的、空間的、機能的な脳の状態の不変量を捉える表現を可能にした。
提案アーキテクチャは代数トポロジーと微分幾何学を統合し、ホモロジーランドスケープ内の勾配に基づく学習を一般化するコホモロジー演算子を構築する。
制御された位相的シグネチャと実際のニューラルネットワークを用いた合成データは、永続的ホモロジー、せん断コホモロジー、スペクトルラプラシアンを用いて共同で解析し、安定性、連続性、構造保存を定量化する。
実験結果から,このモデルはグラフニューラルネットワークや多様体に基づくディープアーキテクチャと比較して,優れた多様体の整合性と耐雑音性を実現し,トポロジー駆動型表現学習のコヒーレントな数学的基礎を確立した。
関連論文リスト
- Unveiling the Actual Performance of Neural-based Models for Equation Discovery on Graph Dynamical Systems [45.11208589443806]
グラフのためのKAN(Kolmogorov-Arnold Networks)は、その固有の解釈可能性を活用するように設計されている。
カンは基礎となる記号方程式の同定に成功し、既存の基底線をはるかに上回った。
本研究は,モデル表現性と解釈可能性のトレードオフを明らかにするための実践的ガイドを提供する。
論文 参考訳(メタデータ) (2025-08-25T16:25:50Z) - Why Neural Network Can Discover Symbolic Structures with Gradient-based Training: An Algebraic and Geometric Foundation for Neurosymbolic Reasoning [73.18052192964349]
我々は、連続的なニューラルネットワークトレーニングのダイナミックスから、離散的なシンボル構造が自然に現れるかを説明する理論的枠組みを開発する。
ニューラルパラメータを測度空間に上げ、ワッサーシュタイン勾配流としてモデル化することにより、幾何的制約の下では、パラメータ測度 $mu_t$ が2つの同時現象となることを示す。
論文 参考訳(メタデータ) (2025-06-26T22:40:30Z) - Mathematical Modeling of Protein Structures: A Cohomology-Based Approach to the Flagellar Motor [2.389598109913754]
本研究では、固定双対グラフを持つ曲線の境界クラスから生成されるコホモロジーから導かれる新しい数学的モデルを提案する。
提案モデルはタンパク質構造解析および予測に利用され,特にフラゲラーモーター構造への応用が期待できる。
論文 参考訳(メタデータ) (2025-04-08T19:21:44Z) - Conformable Convolution for Topologically Aware Learning of Complex Anatomical Structures [38.20599800950335]
トポロジ的一貫性を明示するために設計された新しい畳み込み層であるConformable Convolutionを紹介する。
Topological Posterior Generator (TPG)モジュールは、重要なトポロジ的特徴を特定し、畳み込み層をガイドする。
本稿では,構造物の相互接続性維持が重要となるセグメンテーション作業におけるフレームワークの有効性を示す。
論文 参考訳(メタデータ) (2024-12-29T22:41:33Z) - Topological Representational Similarity Analysis in Brains and Beyond [15.417809900388262]
この論文では、神経表現の幾何学的および位相的特性を組み合わせた新しいフレームワークであるトポロジカルRSA(tRSA)を紹介する。
tRSAは非線型単調変換を表現上の相似性に適用し、中間スケールの幾何学を維持しながら局所位相を強調する。
結果として生じる地形行列は、ノイズや個々の慣用性に頑健なモデル比較を可能にする。
論文 参考訳(メタデータ) (2024-08-21T19:02:00Z) - Interpretable Spatio-Temporal Embedding for Brain Structural-Effective Network with Ordinary Differential Equation [56.34634121544929]
本研究では,まず動的因果モデルを用いて脳効果ネットワークを構築する。
次に、STE-ODE(Spatio-Temporal Embedding ODE)と呼ばれる解釈可能なグラフ学習フレームワークを導入する。
このフレームワークは、構造的および効果的なネットワーク間の動的相互作用を捉えることを目的とした、特異的に設計されたノード埋め込み層を含んでいる。
論文 参考訳(メタデータ) (2024-05-21T20:37:07Z) - Discrete, compositional, and symbolic representations through attractor dynamics [51.20712945239422]
我々は,思考の確率的言語(PLoT)に似た認知過程をモデル化するために,アトラクタダイナミクスを記号表現と統合した新しいニューラルシステムモデルを導入する。
我々のモデルは、連続表現空間を、事前定義されたプリミティブに頼るのではなく、教師なし学習を通じて、記号系の意味性と構成性の特徴を反映する、記号列に対応する引き付け状態を持つ離散盆地に分割する。
このアプローチは、認知操作の複雑な双対性を反映したより包括的なモデルを提供する、AIにおける表現力の証明された神経弁別可能な基質であるニューラルダイナミクスを通じて、シンボル処理とサブシンボル処理の両方を統合する統一的なフレームワークを確立する。
論文 参考訳(メタデータ) (2023-10-03T05:40:56Z) - LOGICSEG: Parsing Visual Semantics with Neural Logic Learning and
Reasoning [73.98142349171552]
LOGICSEGは、神経誘導学習と論理推論をリッチデータとシンボリック知識の両方に統合する、全体論的視覚意味論である。
ファジィ論理に基づく連続的な緩和の間、論理式はデータとニューラルな計算グラフに基礎を置いており、論理によるネットワークトレーニングを可能にする。
これらの設計によりLOGICSEGは、既存のセグメンテーションモデルに容易に統合できる汎用的でコンパクトなニューラル論理マシンとなる。
論文 参考訳(メタデータ) (2023-09-24T05:43:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。