論文の概要: HOPSE: Scalable Higher-Order Positional and Structural Encoder for Combinatorial Representations
- arxiv url: http://arxiv.org/abs/2505.15405v1
- Date: Wed, 21 May 2025 11:47:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-22 15:42:59.602597
- Title: HOPSE: Scalable Higher-Order Positional and Structural Encoder for Combinatorial Representations
- Title(参考訳): HOPSE: 組合せ表現のためのスケーラブルな高次位置および構造エンコーダ
- Authors: Martin Carrasco, Guillermo Bernardez, Marco Montagna, Nina Miolane, Lev Telyatnikov,
- Abstract要約: HOPSEは、Hasseグラフ分解を用いて効率的なエンコーディングを導出する表現力のあるエンフェセージパスフリーフレームワークである。
実験によると、HOPSEは最先端のパフォーマンスと一致または超え、最大7ドルのスケーラブルなスピードアップを実現している。
- 参考スコア(独自算出の注目度): 3.0097956531484233
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: While Graph Neural Networks (GNNs) have proven highly effective at modeling relational data, pairwise connections cannot fully capture multi-way relationships naturally present in complex real-world systems. In response to this, Topological Deep Learning (TDL) leverages more general combinatorial representations -- such as simplicial or cellular complexes -- to accommodate higher-order interactions. Existing TDL methods often extend GNNs through Higher-Order Message Passing (HOMP), but face critical \emph{scalability challenges} due to \textit{(i)} a combinatorial explosion of message-passing routes, and \textit{(ii)} significant complexity overhead from the propagation mechanism. To overcome these limitations, we propose HOPSE (Higher-Order Positional and Structural Encoder) -- a \emph{message passing-free} framework that uses Hasse graph decompositions to derive efficient and expressive encodings over \emph{arbitrary higher-order domains}. Notably, HOPSE scales linearly with dataset size while preserving expressive power and permutation equivariance. Experiments on molecular, expressivity and topological benchmarks show that HOPSE matches or surpasses state-of-the-art performance while achieving up to 7 $times$ speedups over HOMP-based models, opening a new path for scalable TDL.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、関係データをモデル化するのに非常に有効であることが証明されているが、ペアワイズ接続は、複雑な実世界のシステムに自然に存在するマルチウェイ関係を完全に捉えることはできない。
これに対応するため、トポロジカル・ディープ・ラーニング(TDL)はより一般的な組合せ表現(simplicial)やセル・コンプレックス(cellular complex)など)を活用して高次相互作用を実現する。
既存のTDLメソッドは、高階メッセージパッシング(HOMP)を通じてGNNを拡張することが多いが、 \textit{scalability challenges} が原因で、批判的な \emph{scalability challenges} に直面している。
i) メッセージパッシングルートの組合せ爆発と \textit{
(ii) 伝搬機構の複雑さのオーバーヘッドが大きい。
これらの制限を克服するため,HOPSE (Higher-Order Positional and Structure Encoder) という,Hasseグラフ分解を用いた高次領域上の効率的な表現的エンコーディングを導出するフレームワークを提案する。
特に、HOPSEは表現力と置換等価性を保ちながら、データセットサイズと線形にスケールする。
分子、表現率、トポロジカルベンチマークの実験では、HOPSEは最先端の性能と一致または超え、HOMPベースのモデルよりも最大7$times$のスピードアップを実現し、スケーラブルなTDLのための新しいパスが開かれた。
関連論文リスト
- ScaleGNN: Towards Scalable Graph Neural Networks via Adaptive High-order Neighboring Feature Fusion [15.33100217104504]
本稿では,大規模グラフのための新しいフレームワークであるScaleGNNを提案する。
同時に、マルチレベルグラフ機能を適応的に融合することで、両方の課題に対処する。
我々の手法は、精度と計算効率の両面で最先端のGNNモデルより一貫して優れている。
論文 参考訳(メタデータ) (2025-04-22T14:05:11Z) - Topological Deep Learning with State-Space Models: A Mamba Approach for Simplicial Complexes [4.787059527893628]
本稿では,Mamba状態空間モデルをバックボーンとして利用して,単純な複素数を扱うように設計された新しいアーキテクチャを提案する。
提案手法は, 隣接セルをベースとしたノードのシーケンスを生成し, ランクに関わらず, 上位構造間の直接通信を可能にする。
論文 参考訳(メタデータ) (2024-09-18T14:49:25Z) - Higher-order Graph Convolutional Network with Flower-Petals Laplacians
on Simplicial Complexes [5.838832985156104]
FPラプラシアンをsimplicial Complex(SC)に組み込んだ高次フラワー・ペタールス(FP)モデルを提案する。
また、FPラプラシアンを基盤とした高階グラフ畳み込みネットワーク(HiGCN)を導入し、様々な位相スケールで固有の特徴を識別する。
HiGCNは、様々なグラフタスクにおける最先端のパフォーマンスを達成し、グラフにおける高次相互作用を探索するためのスケーラブルで柔軟なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-22T16:11:17Z) - Tensorized Hypergraph Neural Networks [69.65385474777031]
我々は,新しいアジャケーシテンソルベースのtextbfTensorized textbfHypergraph textbfNeural textbfNetwork (THNN) を提案する。
THNNは高次外装機能パッシングメッセージを通じて、忠実なハイパーグラフモデリングフレームワークである。
3次元視覚オブジェクト分類のための2つの広く使われているハイパーグラフデータセットの実験結果から、モデルの有望な性能を示す。
論文 参考訳(メタデータ) (2023-06-05T03:26:06Z) - Equivariant Hypergraph Diffusion Neural Operators [81.32770440890303]
ハイパーグラフを符号化するためにニューラルネットワークを使用するハイパーグラフニューラルネットワーク(HNN)は、データの高次関係をモデル化する有望な方法を提供する。
本研究ではED-HNNと呼ばれる新しいHNNアーキテクチャを提案する。
実世界の9つのハイパーグラフデータセットのノード分類におけるED-HNNの評価を行った。
論文 参考訳(メタデータ) (2022-07-14T06:17:00Z) - Simple and Efficient Heterogeneous Graph Neural Network [55.56564522532328]
不均一グラフニューラルネットワーク(HGNN)は、不均一グラフの豊富な構造的および意味的な情報をノード表現に埋め込む強力な能力を持つ。
既存のHGNNは、同種グラフ上のグラフニューラルネットワーク(GNN)から多くのメカニズム、特に注意機構と多層構造を継承する。
本稿では,これらのメカニズムを詳細に検討し,簡便かつ効率的なヘテロジニアスグラフニューラルネットワーク(SeHGNN)を提案する。
論文 参考訳(メタデータ) (2022-07-06T10:01:46Z) - Deep Architecture Connectivity Matters for Its Convergence: A
Fine-Grained Analysis [94.64007376939735]
我々は、勾配降下訓練におけるディープニューラルネットワーク(DNN)の収束に対する接続パターンの影響を理論的に特徴づける。
接続パターンの単純なフィルタリングによって、評価対象のモデルの数を削減できることが示される。
論文 参考訳(メタデータ) (2022-05-11T17:43:54Z) - Dist2Cycle: A Simplicial Neural Network for Homology Localization [66.15805004725809]
単純複体は多方向順序関係を明示的にエンコードするグラフの高次元一般化と見なすことができる。
単体錯体の$k$-homological特徴によってパラメータ化された関数のグラフ畳み込みモデルを提案する。
論文 参考訳(メタデータ) (2021-10-28T14:59:41Z) - Weisfeiler and Lehman Go Cellular: CW Networks [3.0017241250121383]
グラフニューラルネットワーク(GNN)は、表現力に制限があり、長距離相互作用に苦慮し、高次構造をモデル化する原則的な方法が欠けている。
SC の最近の理論的結果は、SC とグラフを柔軟にサブスムする位相対象である正則なセルコンプレックスに拡張する。
この一般化は、グラフリフトの変換の強力なセットを提供し、それぞれがユニークなメッセージパッシング手順につながることを示す。
論文 参考訳(メタデータ) (2021-06-23T17:59:16Z) - Counting Substructures with Higher-Order Graph Neural Networks:
Possibility and Impossibility Results [58.277290855841976]
グラフニューラルネットワーク(GNN)の計算コストと表現力のトレードオフについて検討する。
新しいモデルでは、$k$のサブグラフをカウントでき、低次GNNの既知の制限を克服できることを示す。
いくつかの場合において、提案アルゴリズムは既存の高階$k$-GNNに比べて計算量を大幅に削減することができる。
論文 参考訳(メタデータ) (2020-12-06T03:42:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。