論文の概要: Directed Semi-Simplicial Learning with Applications to Brain Activity Decoding
- arxiv url: http://arxiv.org/abs/2505.17939v1
- Date: Fri, 23 May 2025 14:15:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-26 18:08:34.143571
- Title: Directed Semi-Simplicial Learning with Applications to Brain Activity Decoding
- Title(参考訳): 脳活動復号への半単純学習の応用
- Authors: Manuel Lecha, Andrea Cavallo, Francesca Dominici, Ran Levi, Alessio Del Bue, Elvin Isufi, Pietro Morerio, Claudio Battiloro,
- Abstract要約: トポロジカルディープラーニング(TDL)は、トポロジカル空間を活用することで、この制限に対処する。
半単純ニューラルネットワーク(SSN)は,半単純集合上で動作するTDLモデルの原理クラスである。
SSNは、脳力学の分類タスクにおける最先端のパフォーマンスを達成し、第2のベストモデルを最大27%、メッセージパッシングGNNを最大50%向上させる。
- 参考スコア(独自算出の注目度): 25.9555092968451
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Graph Neural Networks (GNNs) excel at learning from pairwise interactions but often overlook multi-way and hierarchical relationships. Topological Deep Learning (TDL) addresses this limitation by leveraging combinatorial topological spaces. However, existing TDL models are restricted to undirected settings and fail to capture the higher-order directed patterns prevalent in many complex systems, e.g., brain networks, where such interactions are both abundant and functionally significant. To fill this gap, we introduce Semi-Simplicial Neural Networks (SSNs), a principled class of TDL models that operate on semi-simplicial sets -- combinatorial structures that encode directed higher-order motifs and their directional relationships. To enhance scalability, we propose Routing-SSNs, which dynamically select the most informative relations in a learnable manner. We prove that SSNs are strictly more expressive than standard graph and TDL models. We then introduce a new principled framework for brain dynamics representation learning, grounded in the ability of SSNs to provably recover topological descriptors shown to successfully characterize brain activity. Empirically, SSNs achieve state-of-the-art performance on brain dynamics classification tasks, outperforming the second-best model by up to 27%, and message passing GNNs by up to 50% in accuracy. Our results highlight the potential of principled topological models for learning from structured brain data, establishing a unique real-world case study for TDL. We also test SSNs on standard node classification and edge regression tasks, showing competitive performance. We will make the code and data publicly available.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、ペアのインタラクションから学習する上で優れていますが、多くの場合、マルチウェイと階層的な関係を見落としています。
トポロジカル・ディープ・ラーニング(TDL)は、組合せトポロジカル・トポロジカル・スペースを活用することで、この制限に対処する。
しかし、既存のTDLモデルは、非指向的な設定に制限されており、多くの複雑なシステム、例えば脳ネットワークにおいて、そのような相互作用が豊富で機能的に重要な高次指向パターンをキャプチャできない。
このギャップを埋めるために、半単純集合で動くTDLモデルの原則クラスであるSemi-Simplicial Neural Networks (SSNs)を紹介します。
スケーラビリティを向上させるために,学習可能な方法で最も情報性の高い関係を動的に選択するルーティング-SSNを提案する。
我々は,SSNが標準グラフやTDLモデルよりも厳密に表現可能であることを証明した。
そこで我々は,脳活動の特徴付けを成功させるために示されるトポロジカル記述子を確実に回収するSSNの能力に基づいて,脳ダイナミクス表現学習のための新しい原理的枠組みを導入する。
経験的に、SSNは脳力学の分類タスクにおける最先端のパフォーマンスを達成し、第2のベストモデルを最大27%、メッセージパッシングGNNを最大50%向上させる。
この結果は、構造化脳データから学習するための原則的トポロジカルモデルの可能性を強調し、TDLのユニークな実世界ケーススタディを確立した。
また、標準ノード分類とエッジ回帰タスクでSSNをテストし、競合性能を示す。
コードとデータを公開します。
関連論文リスト
- TopoTune : A Framework for Generalized Combinatorial Complex Neural Networks [5.966445718346143]
一般化されたCCNNは、任意の(グラフ)ニューラルネットワークをTDLに変換するために使用することができる。
TopoTuneは、前例のない柔軟性と容易さでGCCNを定義し、構築し、訓練するための軽量ソフトウェアである。
論文 参考訳(メタデータ) (2024-10-09T04:07:20Z) - Knowledge Enhanced Neural Networks for relational domains [83.9217787335878]
我々は、ニューラルネットワークに事前論理的知識を注入するニューラルネットワークアーキテクチャであるKENNに焦点を当てる。
本稿では,関係データに対するKENNの拡張を提案する。
論文 参考訳(メタデータ) (2022-05-31T13:00:34Z) - PredRNN: A Recurrent Neural Network for Spatiotemporal Predictive
Learning [109.84770951839289]
歴史的文脈からビジュアルダイナミクスを学習するための新しいリカレントネットワークであるPredRNNを紹介する。
本手法は,3つの標準データセット上で高い競争結果が得られることを示す。
論文 参考訳(メタデータ) (2021-03-17T08:28:30Z) - Evolutionary Architecture Search for Graph Neural Networks [23.691915813153496]
本稿では,大規模グラフニューラルネットワーク(GNN)アーキテクチャ空間における個々のモデルの進化を通じて,新しいAutoMLフレームワークを提案する。
我々の知る限りでは、GNNモデルの進化的アーキテクチャ探索を導入し、評価する最初の試みである。
論文 参考訳(メタデータ) (2020-09-21T22:11:53Z) - Neural Networks Enhancement with Logical Knowledge [83.9217787335878]
関係データに対するKENNの拡張を提案する。
その結果、KENNは、存在関係データにおいても、基礎となるニューラルネットワークの性能を高めることができることがわかった。
論文 参考訳(メタデータ) (2020-09-13T21:12:20Z) - Exploiting Heterogeneity in Operational Neural Networks by Synaptic
Plasticity [87.32169414230822]
最近提案されたネットワークモデルであるオペレーショナルニューラルネットワーク(ONN)は、従来の畳み込みニューラルネットワーク(CNN)を一般化することができる。
本研究では, 生体ニューロンにおける本質的な学習理論を示すSynaptic Plasticityパラダイムに基づいて, ネットワークの隠蔽ニューロンに対する最強演算子集合の探索に焦点をあてる。
高難易度問題に対する実験結果から、神経細胞や層が少なくても、GISベースのONNよりも優れた学習性能が得られることが示された。
論文 参考訳(メタデータ) (2020-08-21T19:03:23Z) - Neural Additive Models: Interpretable Machine Learning with Neural Nets [77.66871378302774]
ディープニューラルネットワーク(DNN)は、さまざまなタスクにおいて優れたパフォーマンスを達成した強力なブラックボックス予測器である。
本稿では、DNNの表現性と一般化した加法モデルの固有知性を組み合わせたニューラル付加モデル(NAM)を提案する。
NAMは、ニューラルネットワークの線形結合を学び、それぞれが単一の入力機能に付随する。
論文 参考訳(メタデータ) (2020-04-29T01:28:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。