論文の概要: HOPSE: Scalable Higher-Order Positional and Structural Encoder for Combinatorial Representations
- arxiv url: http://arxiv.org/abs/2505.15405v2
- Date: Mon, 27 Oct 2025 14:16:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 17:41:21.553349
- Title: HOPSE: Scalable Higher-Order Positional and Structural Encoder for Combinatorial Representations
- Title(参考訳): HOPSE: 組合せ表現のためのスケーラブルな高次位置および構造エンコーダ
- Authors: Martin Carrasco, Guillermo Bernardez, Marco Montagna, Nina Miolane, Lev Telyatnikov,
- Abstract要約: トポロジカルディープラーニング(TDL)は、高次相互作用に対応するためにより一般的な表現を使用する。
既存のTDLメソッドは、しばしば高次メッセージパッシング(HOMP)を通してGNNを拡張する。
本研究は,高次関係相互作用を含む課題を解決する方法として,HOPSEを提案する。
- 参考スコア(独自算出の注目度): 7.494692635491467
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: While Graph Neural Networks (GNNs) have proven highly effective at modeling relational data, pairwise connections cannot fully capture multi-way relationships naturally present in complex real-world systems. In response to this, Topological Deep Learning (TDL) leverages more general combinatorial representations -- such as simplicial or cellular complexes -- to accommodate higher-order interactions. Existing TDL methods often extend GNNs through Higher-Order Message Passing (HOMP), but face critical \emph{scalability challenges} due to \textit{(i)} a combinatorial explosion of message-passing routes, and \textit{(ii)} significant complexity overhead from the propagation mechanism. This work presents HOPSE (Higher-Order Positional and Structural Encoder), an alternative method to solve tasks involving higher-order interactions \emph{without message passing}. Instead, HOPSE breaks \emph{arbitrary higher-order domains} into their neighborhood relationships using a Hasse graph decomposition. This method shows that decoupling the representation learning of neighborhood topology from that of attributes results in lower computational complexity, casting doubt on the need for HOMP. The experiments on molecular graph tasks and topological benchmarks show that HOPSE matches performance on traditional TDL datasets and outperforms HOMP methods on topological tasks, achieving up to $7\times$ speedups over HOMP-based models, opening a new path for scalable TDL.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、関係データをモデル化するのに非常に有効であることが証明されているが、ペアワイズ接続は、複雑な実世界のシステムに自然に存在するマルチウェイ関係を完全に捉えることはできない。
これに対応するため、トポロジカル・ディープ・ラーニング(TDL)はより一般的な組合せ表現(simplicial)やセル・コンプレックス(cellular complex)など)を活用して高次相互作用を実現する。
既存のTDLメソッドは、高階メッセージパッシング(HOMP)を通じてGNNを拡張することが多いが、 \textit{scalability challenges} が原因で、批判的な \emph{scalability challenges} に直面している。
i) メッセージパッシングルートの組合せ爆発と \textit{
(ii) 伝搬機構の複雑さのオーバーヘッドが大きい。
HOPSE(Higher-Order Positional and Structure Encoder)は、高次相互作用を持つタスクを解決する方法である。
代わりに、HOPSEは、ハセグラフ分解を用いて、emph{arbitrary high-order domain} をそれらの近傍関係に分解する。
本手法は, 周辺トポロジの表現学習を属性から切り離すことにより, 計算複雑性が低下し, HOMPの必要性に疑問を呈する。
分子グラフタスクとトポロジカルベンチマークの実験は、HOPSEが従来のTDLデータセットのパフォーマンスにマッチし、トポロジカルタスクでHOMPメソッドより優れており、HOMPベースのモデルよりも最大7ドル以上のスピードアップを実現し、スケーラブルなTDLのための新しいパスが開かれたことを示している。
関連論文リスト
- Heat Kernel Goes Topological [4.604003661048267]
グラフニューラルネットワークの強力な後継として、トポロジカルニューラルネットワークが登場している。
複素数(CC)上のラプラシアン作用素を導入する新しいトポロジカルフレームワークを導入する。
提案手法は, マルチスケール情報をキャプチャし, 置換同変表現を可能にし, 現代のトランスフォーマーアーキテクチャへの容易に統合できる。
論文 参考訳(メタデータ) (2025-07-16T16:28:10Z) - Heterogeneous Temporal Hypergraph Neural Network [25.524117795336053]
グラフ表現学習(GRL)は,グラフ構造化データのモデリングに有効な手法である。
本稿では,HTGの高次相互作用をフルに捉えるために,HTHGN(Heterogeneous Temporal HyperGraph Neural Network)を提案する。
3つの実世界のHTGデータセットに関する詳細な実験結果は、提案したHTHGNがHTGの高次相互作用をモデル化するための有効性を検証する。
論文 参考訳(メタデータ) (2025-06-18T10:36:11Z) - ScaleGNN: Towards Scalable Graph Neural Networks via Adaptive High-order Neighboring Feature Fusion [15.33100217104504]
本稿では,大規模グラフのための新しいフレームワークであるScaleGNNを提案する。
同時に、マルチレベルグラフ機能を適応的に融合することで、両方の課題に対処する。
我々の手法は、精度と計算効率の両面で最先端のGNNモデルより一貫して優れている。
論文 参考訳(メタデータ) (2025-04-22T14:05:11Z) - Topological Deep Learning with State-Space Models: A Mamba Approach for Simplicial Complexes [4.787059527893628]
本稿では,Mamba状態空間モデルをバックボーンとして利用して,単純な複素数を扱うように設計された新しいアーキテクチャを提案する。
提案手法は, 隣接セルをベースとしたノードのシーケンスを生成し, ランクに関わらず, 上位構造間の直接通信を可能にする。
論文 参考訳(メタデータ) (2024-09-18T14:49:25Z) - Higher-order Graph Convolutional Network with Flower-Petals Laplacians
on Simplicial Complexes [5.838832985156104]
FPラプラシアンをsimplicial Complex(SC)に組み込んだ高次フラワー・ペタールス(FP)モデルを提案する。
また、FPラプラシアンを基盤とした高階グラフ畳み込みネットワーク(HiGCN)を導入し、様々な位相スケールで固有の特徴を識別する。
HiGCNは、様々なグラフタスクにおける最先端のパフォーマンスを達成し、グラフにおける高次相互作用を探索するためのスケーラブルで柔軟なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-22T16:11:17Z) - Tensorized Hypergraph Neural Networks [69.65385474777031]
我々は,新しいアジャケーシテンソルベースのtextbfTensorized textbfHypergraph textbfNeural textbfNetwork (THNN) を提案する。
THNNは高次外装機能パッシングメッセージを通じて、忠実なハイパーグラフモデリングフレームワークである。
3次元視覚オブジェクト分類のための2つの広く使われているハイパーグラフデータセットの実験結果から、モデルの有望な性能を示す。
論文 参考訳(メタデータ) (2023-06-05T03:26:06Z) - Equivariant Hypergraph Diffusion Neural Operators [81.32770440890303]
ハイパーグラフを符号化するためにニューラルネットワークを使用するハイパーグラフニューラルネットワーク(HNN)は、データの高次関係をモデル化する有望な方法を提供する。
本研究ではED-HNNと呼ばれる新しいHNNアーキテクチャを提案する。
実世界の9つのハイパーグラフデータセットのノード分類におけるED-HNNの評価を行った。
論文 参考訳(メタデータ) (2022-07-14T06:17:00Z) - Simple and Efficient Heterogeneous Graph Neural Network [55.56564522532328]
不均一グラフニューラルネットワーク(HGNN)は、不均一グラフの豊富な構造的および意味的な情報をノード表現に埋め込む強力な能力を持つ。
既存のHGNNは、同種グラフ上のグラフニューラルネットワーク(GNN)から多くのメカニズム、特に注意機構と多層構造を継承する。
本稿では,これらのメカニズムを詳細に検討し,簡便かつ効率的なヘテロジニアスグラフニューラルネットワーク(SeHGNN)を提案する。
論文 参考訳(メタデータ) (2022-07-06T10:01:46Z) - Deep Architecture Connectivity Matters for Its Convergence: A
Fine-Grained Analysis [94.64007376939735]
我々は、勾配降下訓練におけるディープニューラルネットワーク(DNN)の収束に対する接続パターンの影響を理論的に特徴づける。
接続パターンの単純なフィルタリングによって、評価対象のモデルの数を削減できることが示される。
論文 参考訳(メタデータ) (2022-05-11T17:43:54Z) - Dist2Cycle: A Simplicial Neural Network for Homology Localization [66.15805004725809]
単純複体は多方向順序関係を明示的にエンコードするグラフの高次元一般化と見なすことができる。
単体錯体の$k$-homological特徴によってパラメータ化された関数のグラフ畳み込みモデルを提案する。
論文 参考訳(メタデータ) (2021-10-28T14:59:41Z) - Weisfeiler and Lehman Go Cellular: CW Networks [3.0017241250121383]
グラフニューラルネットワーク(GNN)は、表現力に制限があり、長距離相互作用に苦慮し、高次構造をモデル化する原則的な方法が欠けている。
SC の最近の理論的結果は、SC とグラフを柔軟にサブスムする位相対象である正則なセルコンプレックスに拡張する。
この一般化は、グラフリフトの変換の強力なセットを提供し、それぞれがユニークなメッセージパッシング手順につながることを示す。
論文 参考訳(メタデータ) (2021-06-23T17:59:16Z) - Counting Substructures with Higher-Order Graph Neural Networks:
Possibility and Impossibility Results [58.277290855841976]
グラフニューラルネットワーク(GNN)の計算コストと表現力のトレードオフについて検討する。
新しいモデルでは、$k$のサブグラフをカウントでき、低次GNNの既知の制限を克服できることを示す。
いくつかの場合において、提案アルゴリズムは既存の高階$k$-GNNに比べて計算量を大幅に削減することができる。
論文 参考訳(メタデータ) (2020-12-06T03:42:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。