論文の概要: Hyperbolic Graph Neural Networks Under the Microscope: The Role of Geometry-Task Alignment
- arxiv url: http://arxiv.org/abs/2602.01828v1
- Date: Mon, 02 Feb 2026 09:01:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:34.023137
- Title: Hyperbolic Graph Neural Networks Under the Microscope: The Role of Geometry-Task Alignment
- Title(参考訳): 顕微鏡下のハイパーボリックグラフニューラルネット:幾何-タスクアライメントの役割
- Authors: Dionisia Naddeo, Jonas Linkerhägner, Nicola Toschi, Geri Skenderi, Veronica Lachi,
- Abstract要約: ハイパーボリックグラフニューラルネットワーク(HGNN)は、木のようなグラフ上での表現学習の原則として広く採用されている。
対象の計量構造が入力グラフのそれに従うか否かを,幾何-タスクアライメントの付加条件として提案する。
HGNNは、そのようなアライメントの下でユークリッドモデルより一貫して優れているが、その利点は消える。
- 参考スコア(独自算出の注目度): 5.116264249622881
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many complex networks exhibit hyperbolic structural properties, making hyperbolic space a natural candidate for representing hierarchical and tree-like graphs with low distortion. Based on this observation, Hyperbolic Graph Neural Networks (HGNNs) have been widely adopted as a principled choice for representation learning on tree-like graphs. In this work, we question this paradigm by proposing an additional condition of geometry-task alignment, i.e., whether the metric structure of the target follows that of the input graph. We theoretically and empirically demonstrate the capability of HGNNs to recover low-distortion representations on two synthetic regression problems, and show that their geometric inductive bias becomes helpful when the problem requires preserving metric structure. Additionally, we evaluate HGNNs on the tasks of link prediction and node classification by jointly analyzing predictive performance and embedding distortion, revealing that only link prediction is geometry-aligned. Overall, our findings shift the focus from only asking "Is the graph hyperbolic?" to also questioning "Is the task aligned with hyperbolic geometry?", showing that HGNNs consistently outperform Euclidean models under such alignment, while their advantage vanishes otherwise.
- Abstract(参考訳): 多くの複素ネットワークは双曲構造的性質を示し、双曲空間は低歪みの階層グラフや木のようなグラフを表す自然な候補となる。
この観測に基づいて,高次グラフニューラルネットワーク(HGNN)は,木のようなグラフ上での表現学習の原則的選択として広く採用されている。
本研究では、このパラダイムについて、幾何学とタスクのアライメントの付加条件、すなわち、対象の計量構造が入力グラフのそれに従うかどうかを論じる。
我々は,HGNNが2つの合成回帰問題に対して低歪み表現を復元する能力を理論的かつ実証的に実証し,それらの幾何学的帰納バイアスが,その問題にメートル法構造を保存する必要がある場合に有効であることを示す。
さらに, リンク予測とノード分類のタスクに対してHGNNを評価し, 予測性能と埋め込み歪みを共同で解析し, リンク予測のみが幾何整合であることを明らかにする。
全体として、我々の研究は「グラフ双曲的か?」という問いから「双曲幾何学に沿った課題なのか?」という問いへと焦点を移し、HGNNがそのようなアライメントの下で一貫してユークリッドモデルより優れている一方で、その優位性は消えていることを示す。
関連論文リスト
- Chi-Geometry: A Library for Benchmarking Chirality Prediction of GNNs [0.0]
Chi-Geometryは、GNNのキラリティを予測する能力のテストとベンチマークのためのグラフデータを生成するライブラリである。
Chi-Geometryは、グラフサンプルのキラリティーを予測するために、GNNのより解釈可能でコンバウンディングの少ないベンチマークを可能にする。
論文 参考訳(メタデータ) (2025-08-12T17:24:56Z) - Generalization of Geometric Graph Neural Networks with Lipschitz Loss Functions [84.01980526069075]
幾何グラフニューラルネットワーク(GNN)の一般化能力について検討する。
我々は,このGNNの最適経験リスクと最適統計リスクとの一般化ギャップを証明した。
複数の実世界のデータセットに対する実験により、この理論結果を検証する。
論文 参考訳(メタデータ) (2024-09-08T18:55:57Z) - Contextualized Messages Boost Graph Representations [1.5178009359320295]
周辺特徴表現の文脈変換を強調するグラフ畳み込みネットワーク(SIR-GCN)を提案する。
SIR-GCNとベンチマークデータセットの合成上の優位性の実験は、データセットとプロパティ予測タスクにおいてパフォーマンスを示す。
論文 参考訳(メタデータ) (2024-03-19T08:05:49Z) - A Survey of Geometric Graph Neural Networks: Data Structures, Models and Applications [71.809127869349]
本稿では、幾何学的メッセージパッシングの観点から、既存のモデルの統一的なビューを提供するデータ構造として幾何学的グラフを定式化する。
また、方法論開発と実験評価の後の研究を促進するために、アプリケーションと関連するデータセットを要約する。
論文 参考訳(メタデータ) (2024-03-01T12:13:04Z) - Implicit Graph Neural Diffusion Networks: Convergence, Generalization,
and Over-Smoothing [7.984586585987328]
Inlicit Graph Neural Networks (GNN)は、グラフ学習問題に対処する上で大きな成功を収めた。
パラメータ化グラフラプラシアン演算子に基づく暗黙グラフ拡散層を設計するための幾何学的枠組みを提案する。
ディリクレエネルギー最小化問題の固定点方程式として, 暗黙のGNN層がどう見えるかを示す。
論文 参考訳(メタデータ) (2023-08-07T05:22:33Z) - Tree Mover's Distance: Bridging Graph Metrics and Stability of Graph
Neural Networks [54.225220638606814]
本稿では,属性グラフの擬似測度,ツリー・モーバー距離(TMD)を提案し,その一般化との関係について検討する。
まず、TMDはグラフ分類に関連する特性をキャプチャし、単純なTMD-SVMは標準のGNNと競合することを示す。
第2に、分散シフトの下でのGNNの一般化とTMDを関連付け、そのようなシフト下での性能低下とよく相関していることを示す。
論文 参考訳(メタデータ) (2022-10-04T21:03:52Z) - Implicit vs Unfolded Graph Neural Networks [29.803948965931212]
暗黙的かつ展開的なGNNは、異なる規則間で強いノード分類精度が得られることを示す。
IGNNはメモリ効率がかなり高いが、UGNNモデルはユニークで統合されたグラフアテンション機構と伝搬規則をサポートしている。
論文 参考訳(メタデータ) (2021-11-12T07:49:16Z) - ACE-HGNN: Adaptive Curvature Exploration Hyperbolic Graph Neural Network [72.16255675586089]
本稿では、入力グラフと下流タスクに基づいて最適な曲率を適応的に学習する適応曲率探索ハイパーボリックグラフニューラルネットワークACE-HGNNを提案する。
複数の実世界のグラフデータセットの実験は、競争性能と優れた一般化能力を備えたモデル品質において、顕著で一貫したパフォーマンス改善を示す。
論文 参考訳(メタデータ) (2021-10-15T07:18:57Z) - Anisotropic Graph Convolutional Network for Semi-supervised Learning [7.843067454030999]
グラフ畳み込みネットワークは、高精度な予測結果を達成するのに有用であることが証明された効率的なノード埋め込みを学習する。
これらのネットワークはグラフの過度な平滑化と縮小効果の問題に悩まされており、それはグラフの端に線形ラプラシア流を用いて拡散するからである。
本稿では,ノードからの情報的特徴を捉える非線形関数を導入し,過度なスムーシングを防止し,半教師付きノード分類のための異方性グラフ畳み込みネットワークを提案する。
論文 参考訳(メタデータ) (2020-10-20T13:56:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。