論文の概要: CCMamba: Selective State-Space Models for Higher-Order Graph Learning on Combinatorial Complexes
- arxiv url: http://arxiv.org/abs/2601.20518v1
- Date: Wed, 28 Jan 2026 11:52:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-29 15:46:06.915346
- Title: CCMamba: Selective State-Space Models for Higher-Order Graph Learning on Combinatorial Complexes
- Title(参考訳): CCMamba: コンビナティブコンプレックス上での高次グラフ学習のための選択的な状態空間モデル
- Authors: Jiawen Chen, Qi Shao, Mingtong Zhou, Duxin Chen, Wenwu Yu,
- Abstract要約: トポロジカルディープラーニングは、対の相互作用を超えた高次構造をモデル化するために登場した。
我々は,リレーショナルコンプレックスを学習するための最初の統合マンバベースニューラルフレームワークである Combinatorial Complex Mambaを提案する。
CCMambaは、ランク対応状態空間モデルによって処理される構造化シーケンスにマルチランクの入射関係を整理することにより、選択的な状態空間モデリング問題としてメッセージパッシングを再構成する。
- 参考スコア(独自算出の注目度): 16.627877999057436
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Topological deep learning has emerged for modeling higher-order relational structures beyond pairwise interactions that standard graph neural networks fail to capture. Although combinatorial complexes offer a unified topological framework, most existing topological deep learning methods rely on local message passing via attention mechanisms, which incur quadratic complexity and remain low-dimensional, limiting scalability and rank-aware information aggregation in higher-order complexes.We propose Combinatorial Complex Mamba (CCMamba), the first unified mamba-based neural framework for learning on combinatorial complexes. CCMamba reformulates message passing as a selective state-space modeling problem by organizing multi-rank incidence relations into structured sequences processed by rank-aware state-space models. This enables adaptive, directional, and long range information propagation in linear time without self attention. We further establish the theoretical analysis that the expressive power upper-bound of CCMamba message passing is the 1-Weisfeiler-Lehman test. Experiments on graph, hypergraph, and simplicial benchmarks demonstrate that CCMamba consistently outperforms existing methods while exhibiting improved scalability and robustness to depth.
- Abstract(参考訳): トポロジ的深層学習は、標準グラフニューラルネットワークが捕捉できないペアワイド相互作用以外の高次関係構造をモデル化するために出現している。
統合トポロジカル・コンプレックスは統合トポロジカル・フレームワークを提供するが、既存のトポロジカル・ディープラーニング手法のほとんどは注意機構による局所的メッセージパッシングに依存しており、これは2次複雑さを発生させ、低次元のままであり、高次コンプレックスにおけるスケーラビリティとランク認識情報アグリゲーションを制限している。
CCMambaは、ランク対応状態空間モデルによって処理される構造化シーケンスにマルチランクの入射関係を整理することにより、選択的な状態空間モデリング問題としてメッセージパッシングを再構成する。
これにより、自己注意なしに線形時間で適応的、指向的、および長距離情報伝達が可能となる。
さらに,CCMambaメッセージパッシングの表現力が1-Weisfeiler-Lehmanテストであることを示す。
グラフ、ハイパーグラフ、simplicialベンチマークの実験では、CCMambaは既存の手法より一貫して優れており、拡張性や深度への堅牢性も向上している。
関連論文リスト
- Topology Identification and Inference over Graphs [61.06365536861156]
グラフ上で進化するプロセスのトポロジの同定と推論は、脳、輸送、金融、電力、および社会的および情報ネットワークを含むタイムリーな応用に現れる。
本章では,多次元データに対するグラフトポロジ同定と統計的推測手法の概要について述べる。
論文 参考訳(メタデータ) (2025-12-11T00:47:09Z) - The Human Brain as a Combinatorial Complex [3.849079578881503]
現在のグラフベースの脳ネットワークの表現は、神経の複雑さを特徴づける高次の依存関係を見逃している。
本稿では,fMRI時系列データから複合体(CC)を構築するためのフレームワークを提案する。
この研究は、従来のグラフ手法では見えない、基本的な高次構造を保存する脳ネットワーク表現のためのフレームワークを提供する。
論文 参考訳(メタデータ) (2025-11-22T19:04:13Z) - Sequential-Parallel Duality in Prefix Scannable Models [68.39855814099997]
近年では Gated Linear Attention (GLA) や Mamba など様々なモデルが開発されている。
ニアコンスタント時間並列評価と線形時間、定数空間シーケンシャル推論をサポートするニューラルネットワークモデルの全クラスを特徴付けることができるだろうか?
論文 参考訳(メタデータ) (2025-06-12T17:32:02Z) - Broad Spectrum Structure Discovery in Large-Scale Higher-Order Networks [1.7273380623090848]
本稿では,大規模ハイパーグラフにおいて,メソスケールの広いスペクトルを効率的に表現し,発見する確率モデルについて紹介する。
低ランク表現を用いたクラス間の潜時相互作用による観測ノードの相互作用をモデル化することにより、我々はリッチな構造パターンを抽出する。
提案モデルは,最先端手法によるリンク予測を改善し,多様な実世界のシステムにおける解釈可能な構造を発見する。
論文 参考訳(メタデータ) (2025-05-27T20:34:58Z) - Topological Deep Learning with State-Space Models: A Mamba Approach for Simplicial Complexes [4.787059527893628]
本稿では,Mamba状態空間モデルをバックボーンとして利用して,単純な複素数を扱うように設計された新しいアーキテクチャを提案する。
提案手法は, 隣接セルをベースとしたノードのシーケンスを生成し, ランクに関わらず, 上位構造間の直接通信を可能にする。
論文 参考訳(メタデータ) (2024-09-18T14:49:25Z) - GrootVL: Tree Topology is All You Need in State Space Model [66.36757400689281]
GrootVLは、視覚的タスクとテキストタスクの両方に適用できる多目的マルチモーダルフレームワークである。
本手法は, 画像分類, オブジェクト検出, セグメンテーションにおいて, 既存の構造化状態空間モデルよりも大幅に優れる。
大規模言語モデルの微調整により,本手法は訓練コストの少ない複数のテキストタスクにおいて一貫した改善を実現する。
論文 参考訳(メタデータ) (2024-06-04T15:09:29Z) - Topological Deep Learning: Going Beyond Graph Data [26.325857542512047]
我々は、広く採用されている位相領域を含むよりリッチなデータ構造の上に構築された統一的な深層学習フレームワークを提案する。
具体的には、新しいタイプのトポロジカルドメインであるコンプレックスを導入する。
我々は、主に注意に基づくCCNNに焦点を当てた、メッセージパッシング複合ニューラルネットワーク(CCNN)のクラスを開発する。
論文 参考訳(メタデータ) (2022-06-01T16:21:28Z) - Deep Equilibrium Assisted Block Sparse Coding of Inter-dependent
Signals: Application to Hyperspectral Imaging [71.57324258813675]
相互依存信号のデータセットは、列が強い依存を示す行列として定義される。
ニューラルネットワークは、事前に構造として機能し、基礎となる信号相互依存性を明らかにするために使用される。
ディープ・アンローリングとディープ・平衡に基づくアルゴリズムが開発され、高度に解釈可能で簡潔なディープ・ラーニング・ベース・アーキテクチャを形成する。
論文 参考訳(メタデータ) (2022-03-29T21:00:39Z) - Dist2Cycle: A Simplicial Neural Network for Homology Localization [66.15805004725809]
単純複体は多方向順序関係を明示的にエンコードするグラフの高次元一般化と見なすことができる。
単体錯体の$k$-homological特徴によってパラメータ化された関数のグラフ畳み込みモデルを提案する。
論文 参考訳(メタデータ) (2021-10-28T14:59:41Z) - A Trainable Optimal Transport Embedding for Feature Aggregation and its
Relationship to Attention [96.77554122595578]
固定サイズのパラメータ化表現を導入し、与えられた入力セットから、そのセットとトレーニング可能な参照の間の最適な輸送計画に従って要素を埋め込み、集約する。
我々のアプローチは大規模なデータセットにスケールし、参照のエンドツーエンドのトレーニングを可能にすると同時に、計算コストの少ない単純な教師なし学習メカニズムも提供する。
論文 参考訳(メタデータ) (2020-06-22T08:35:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。