論文の概要: Weisfeiler and Lehman Go Categorical
- arxiv url: http://arxiv.org/abs/2602.06787v1
- Date: Fri, 06 Feb 2026 15:45:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-09 22:18:26.452689
- Title: Weisfeiler and Lehman Go Categorical
- Title(参考訳): WeisfeilerとLehman Goカテゴリ
- Authors: Seongjin Choi, Gahee Kim, Se-Young Yun,
- Abstract要約: Wesfeiler-Lehman の分類的枠組みを導入する。
メッセージパッシングトポロジが関手の選択によって厳密に決定されるニューラルネットワークのファミリーであるハイパーグラフ同型ネットワークを導出する。
我々はこれらのモデルの表現性を理論的に特徴づけ、入射ベースと対称単純アプローチの両方が標準ハイパーグラフワイスフェイラー・リーマン検定の表現力を仮定することを証明した。
- 参考スコア(独自算出の注目度): 35.34196814560212
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While lifting map has significantly enhanced the expressivity of graph neural networks, extending this paradigm to hypergraphs remains fragmented. To address this, we introduce the categorical Weisfeiler-Lehman framework, which formalizes lifting as a functorial mapping from an arbitrary data category to the unifying category of graded posets. When applied to hypergraphs, this perspective allows us to systematically derive Hypergraph Isomorphism Networks, a family of neural architectures where the message passing topology is strictly determined by the choice of functor. We introduce two distinct functors from the category of hypergraphs: an incidence functor and a symmetric simplicial complex functor. While the incidence architecture structurally mirrors standard bipartite schemes, our functorial derivation enforces a richer information flow over the resulting poset, capturing complex intersection geometries often missed by existing methods. We theoretically characterize the expressivity of these models, proving that both the incidence-based and symmetric simplicial approaches subsume the expressive power of the standard Hypergraph Weisfeiler-Lehman test. Extensive experiments on real-world benchmarks validate these theoretical findings.
- Abstract(参考訳): リフトマップはグラフニューラルネットワークの表現性を著しく向上させたが、このパラダイムをハイパーグラフに拡張することは依然として断片化されている。
これを解決するために、任意のデータカテゴリから次数付きポーズの統一カテゴリへの関手写像としてリフトを形式化する分類型Weisfeiler-Lehmanフレームワークを導入する。
ハイパーグラフに適用すると、この視点は、メッセージパストポロジが関手の選択によって厳密に決定されるニューラルネットワークのファミリーであるハイパーグラフ同型ネットワークを体系的に導出することができる。
ハイパーグラフのカテゴリから、入射関手と対称単純複素関手という2つの異なる関手を導入する。
インシデント・アーキテクチャは標準的な二部構造を構造的に反映するが、我々の関門導出は結果の列上によりリッチな情報の流れを強制し、しばしば既存の方法で欠落する複雑な交叉測地をキャプチャする。
我々はこれらのモデルの表現性を理論的に特徴づけ、入射ベースと対称単純アプローチの両方が標準ハイパーグラフワイスフェイラー・リーマン検定の表現力を仮定することを証明した。
実世界のベンチマークに関する大規模な実験は、これらの理論的な発見を検証している。
関連論文リスト
- Expressive Symbolic Regression for Interpretable Models of Discrete-Time Dynamical Systems [0.0]
このタスクのためのシンボリックニューラルネットワーク訓練表現(SymANNTEx)アーキテクチャ
修正したSymanNTExモデルでは,単一状態のマップを適切に識別し,二状態のアトラクタの近似に適度に成功していることを示す。
論文 参考訳(メタデータ) (2024-06-05T05:05:29Z) - What Improves the Generalization of Graph Transformers? A Theoretical Dive into the Self-attention and Positional Encoding [67.59552859593985]
自己アテンションと位置エンコーディングを組み込んだグラフトランスフォーマーは、さまざまなグラフ学習タスクのための強力なアーキテクチャとして登場した。
本稿では,半教師付き分類のための浅いグラフ変換器の理論的検討について紹介する。
論文 参考訳(メタデータ) (2024-06-04T05:30:16Z) - Homomorphism Counts for Graph Neural Networks: All About That Basis [8.25219440625445]
我々は、よりきめ細かいアプローチを論じ、対象パターンの基底''にすべての構造の準同型数を含む。
これにより計算複雑性の面で追加のオーバーヘッドを発生させずに、より表現力のあるアーキテクチャが得られる。
論文 参考訳(メタデータ) (2024-02-13T16:57:06Z) - Sheaf Hypergraph Networks [20.91851106383122]
本稿では,従来のハイパーグラフに余分な構造を加える数学的構造であるハイパーグラフのセルシーブを紹介する。
文献中の既存のラプラシアンからインスピレーションを得て、我々は2つの独特なシェフハイパーグラフラプラシアンの定式化を開発した。
我々は、これらの層ハイパーグラフラプラシアンを用いて、層ハイパーグラフニューラルネットワークと層ハイパーグラフ畳み込みニューラルネットワークの2つのモデルのカテゴリを設計する。
論文 参考訳(メタデータ) (2023-09-29T10:25:43Z) - Hypergraph Isomorphism Computation [20.21325386855039]
Wesfieler-Lehmanカーネルフレームワークを提案し,Hypergraph Weisfeiler-Lehamn Subtree KernelとHypergraph Weisfeiler-Lehamn Hyperedge Kernelの2つの例を実装した。
ハイパーグラフ分類データセットの結果は、他の典型的なカーネルベースの手法と比較して大幅に改善されている。
論文 参考訳(メタデータ) (2023-07-26T09:39:40Z) - P-tensors: a General Formalism for Constructing Higher Order Message
Passing Networks [5.257115841810258]
高い階数グラフニューラルネットワークは、標準的なメッセージパッシングアルゴリズムよりも精度が高いことを示す。
これらの構造を置換同変テンソル(英語版)(permutation equivariant tensor, P-tensors)として定式化し、任意の位数同変P-テンソル間のすべての線型写像の基底を導出する。
論文 参考訳(メタデータ) (2023-06-19T08:21:30Z) - From Hypergraph Energy Functions to Hypergraph Neural Networks [94.88564151540459]
パラメータ化されたハイパーグラフ正規化エネルギー関数の表現型族を示す。
次に、これらのエネルギーの最小化がノード埋め込みとして効果的に機能することを実証する。
提案した双レベルハイパーグラフ最適化と既存のGNNアーキテクチャを共通的に用いている。
論文 参考訳(メタデータ) (2023-06-16T04:40:59Z) - From axioms over graphs to vectors, and back again: evaluating the
properties of graph-based ontology embeddings [78.217418197549]
埋め込みを生成するアプローチの1つは、名前付きエンティティと論理公理構造のためのノードとエッジのセットを導入することである。
グラフに埋め込む方法(グラフ射影)は、それらが利用する公理の種類と異なる性質を持つ。
論文 参考訳(メタデータ) (2023-03-29T08:21:49Z) - Dist2Cycle: A Simplicial Neural Network for Homology Localization [66.15805004725809]
単純複体は多方向順序関係を明示的にエンコードするグラフの高次元一般化と見なすことができる。
単体錯体の$k$-homological特徴によってパラメータ化された関数のグラフ畳み込みモデルを提案する。
論文 参考訳(メタデータ) (2021-10-28T14:59:41Z) - Understanding Graph Neural Networks with Generalized Geometric
Scattering Transforms [67.88675386638043]
散乱変換は、畳み込みニューラルネットワークのモデルとして機能する多層ウェーブレットベースのディープラーニングアーキテクチャである。
非対称ウェーブレットの非常に一般的なクラスに基づくグラフに対して、窓付きおよび非窓付き幾何散乱変換を導入する。
これらの非対称グラフ散乱変換は、対称グラフ散乱変換と多くの理論的保証を持つことを示す。
論文 参考訳(メタデータ) (2019-11-14T17:23:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。