論文の概要: Adaptive Riemannian Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2508.02600v1
- Date: Mon, 04 Aug 2025 16:55:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-05 18:25:22.440406
- Title: Adaptive Riemannian Graph Neural Networks
- Title(参考訳): 適応リーマングラフニューラルネットワーク
- Authors: Xudong Wang, Tongxin Li, Chris Ding, Jicong Fan,
- Abstract要約: グラフ上の連続および異方性計量テンソル場を学習する新しいフレームワークを導入する。
これにより各ノードがその最適な局所幾何学を決定でき、モデルがグラフの構造的景観に流動的に適応できる。
本手法は, ヘテロ親和性ベンチマークとホモ親和性ベンチマークの双方において, 優れた性能を示す。
- 参考スコア(独自算出の注目度): 29.859977834688625
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph data often exhibits complex geometric heterogeneity, where structures with varying local curvature, such as tree-like hierarchies and dense communities, coexist within a single network. Existing geometric GNNs, which embed graphs into single fixed-curvature manifolds or discrete product spaces, struggle to capture this diversity. We introduce Adaptive Riemannian Graph Neural Networks (ARGNN), a novel framework that learns a continuous and anisotropic Riemannian metric tensor field over the graph. It allows each node to determine its optimal local geometry, enabling the model to fluidly adapt to the graph's structural landscape. Our core innovation is an efficient parameterization of the node-wise metric tensor, specializing to a learnable diagonal form that captures directional geometric information while maintaining computational tractability. To ensure geometric regularity and stable training, we integrate a Ricci flow-inspired regularization that smooths the learned manifold. Theoretically, we establish the rigorous geometric evolution convergence guarantee for ARGNN and provide a continuous generalization that unifies prior fixed or mixed-curvature GNNs. Empirically, our method demonstrates superior performance on both homophilic and heterophilic benchmark datasets with the ability to capture diverse structures adaptively. Moreover, the learned geometries both offer interpretable insights into the underlying graph structure and empirically corroborate our theoretical analysis.
- Abstract(参考訳): グラフデータはしばしば複雑な幾何学的不均一性を示し、木のような階層や密集したコミュニティのような様々な局所曲率を持つ構造は単一のネットワーク内で共存する。
グラフを1つの固定曲率多様体や離散積空間に埋め込む既存の幾何学的GNNは、この多様性を捉えるのに苦労する。
グラフ上の連続かつ異方的なリーマン計量テンソル場を学習する新しいフレームワークであるAdaptive Riemannian Graph Neural Networks (ARGNN)を紹介する。
これにより各ノードがその最適な局所幾何学を決定でき、モデルがグラフの構造的景観に流動的に適応できる。
我々の中心となる革新は、ノードワイト計量テンソルの効率的なパラメータ化であり、計算的トラクタビリティを維持しながら方向幾何学情報をキャプチャする学習可能な対角形に特化している。
幾何学的正則性と安定なトレーニングを保証するために、学習多様体を滑らかにするリッチフローインスパイアされた正則化を統合する。
理論的には、ARGNNの厳密な幾何学的進化収束保証を確立し、事前の固定あるいは混合曲率GNNを統一する連続的な一般化を提供する。
実験により,本手法は,多種多様な構造を適応的に捕捉する能力を持つ同好性ベンチマークと異好性ベンチマークの両方において,優れた性能を示す。
さらに、学習されたジオメトリは、基礎となるグラフ構造に対する解釈可能な洞察を提供し、我々の理論解析を実証的に裏付ける。
関連論文リスト
- Feed-anywhere ANN (I) Steady Discrete $\ o$ Diffusing on Graph Hidden States [0.0]
幾何学的解析と非線形力学を用いたデータから隠れグラフ構造を学習するための新しいフレームワークを提案する。
我々のモデルは,データ多様体のトポロジに依存した,標準的なニューラルネットワークよりも強いバウンダリを実現する。
論文 参考訳(メタデータ) (2025-07-27T00:35:15Z) - Can we ease the Injectivity Bottleneck on Lorentzian Manifolds for Graph Neural Networks? [0.0]
Lorentzian Graph Isomorphic Network (LGIN)は、Lorentzianモデル内での識別性を高めるために設計された新しいHGNNである。
LGINは、強力で差別性の高いGNNアーキテクチャの原理をリーマン多様体に適応させた最初のものである。
論文 参考訳(メタデータ) (2025-03-31T18:49:34Z) - Score-based Pullback Riemannian Geometry: Extracting the Data Manifold Geometry using Anisotropic Flows [10.649159213723106]
本稿では,データ駆動型リーマン幾何学のフレームワークを提案する。
提案手法は,データサポートを通した高品質な測地線を生成する。
これは、データ多様体の完全な幾何学を抽出する最初のスケーラブルなフレームワークである。
論文 参考訳(メタデータ) (2024-10-02T18:52:12Z) - Scalable Graph Compressed Convolutions [68.85227170390864]
ユークリッド畳み込みのための入力グラフのキャリブレーションに置換を適用する微分可能手法を提案する。
グラフキャリブレーションに基づいて,階層型グラフ表現学習のための圧縮畳み込みネットワーク(CoCN)を提案する。
論文 参考訳(メタデータ) (2024-07-26T03:14:13Z) - A Differential Geometric View and Explainability of GNN on Evolving
Graphs [15.228139478280747]
グラフはソーシャルネットワークや生化学においてユビキタスであり、グラフニューラルネットワーク(GNN)は予測のための最先端のモデルである。
本稿では,公理的属性を用いたGNN予測分布のスムーズなパラメータ化を提案する。
グラフの進化によるノード分類,リンク予測,グラフ分類に関する実験により,提案手法の空間性,忠実性,直感性が向上した。
論文 参考訳(メタデータ) (2024-03-11T04:26:18Z) - DeepRicci: Self-supervised Graph Structure-Feature Co-Refinement for
Alleviating Over-squashing [72.70197960100677]
グラフ構造学習(GSL)はグラフニューラルネットワーク(GNN)を改良したグラフで強化する上で重要な役割を果たしている。
GSLソリューションは、通常、タスク固有の監督(ノード分類)による構造改善に焦点を当てるか、GNN自体の固有の弱点を見落としている。
本稿では,典型的なGNNにおけるオーバー・スカッシングの問題を効果的に緩和する,自己教師付きグラフ構造-機能共分法について検討する。
論文 参考訳(メタデータ) (2024-01-23T14:06:08Z) - Improving embedding of graphs with missing data by soft manifolds [51.425411400683565]
グラフ埋め込みの信頼性は、連続空間の幾何がグラフ構造とどの程度一致しているかに依存する。
我々は、この問題を解決することができる、ソフト多様体と呼ばれる新しい多様体のクラスを導入する。
グラフ埋め込みにソフト多様体を用いることで、複雑なデータセット上のデータ解析における任意のタスクを追求するための連続空間を提供できる。
論文 参考訳(メタデータ) (2023-11-29T12:48:33Z) - Curve Your Attention: Mixed-Curvature Transformers for Graph
Representation Learning [77.1421343649344]
本稿では,一定曲率空間の積を完全に操作するトランスフォーマーの一般化を提案する。
また、非ユークリッド注意に対するカーネル化されたアプローチを提供し、ノード数とエッジ数に線形に時間とメモリコストでモデルを実行できるようにします。
論文 参考訳(メタデータ) (2023-09-08T02:44:37Z) - How Curvature Enhance the Adaptation Power of Framelet GCNs [27.831929635701886]
グラフニューラルネットワーク(GNN)は、グラフ構造化データのモデリングにおいて強力に実証されている。
本稿では,離散グラフリッチ曲率によるGNNの拡張手法を提案する。
曲率に基づくGNNモデルは、ホモフィリーグラフとヘテロフィリーグラフの両方において、最先端のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-07-19T06:05:33Z) - Torsion Graph Neural Networks [21.965704710488232]
解析的トーション強化グラフニューラルネットワークモデルであるTorGNNを提案する。
われわれのTorGNNでは,各エッジに対して対応する局所単体複合体を同定し,解析トーションを算出する。
我々のTorGNNは両方のタスクにおいて優れた性能を達成でき、様々な最先端モデルより優れていることが判明した。
論文 参考訳(メタデータ) (2023-06-23T15:02:23Z) - kHGCN: Tree-likeness Modeling via Continuous and Discrete Curvature
Learning [39.25873010585029]
本研究では,学習過程においてネットワークトポロジが伝達するメッセージを符号化することを目的として,離散構造と連続学習空間の曲率を探索する。
曲率を考慮したハイパーボリックグラフ畳み込みニューラルネットワークであるKappaHGCNを提案する。
論文 参考訳(メタデータ) (2022-12-04T10:45:42Z) - ACE-HGNN: Adaptive Curvature Exploration Hyperbolic Graph Neural Network [72.16255675586089]
本稿では、入力グラフと下流タスクに基づいて最適な曲率を適応的に学習する適応曲率探索ハイパーボリックグラフニューラルネットワークACE-HGNNを提案する。
複数の実世界のグラフデータセットの実験は、競争性能と優れた一般化能力を備えたモデル品質において、顕著で一貫したパフォーマンス改善を示す。
論文 参考訳(メタデータ) (2021-10-15T07:18:57Z) - Semi-Riemannian Graph Convolutional Networks [36.09315878397234]
まず、定数非零曲率の半リーマン多様体のデータをモデル化する原理付きセミリーマンGCNを開発する。
本手法は,階層型グラフのような混合ヘテロジニアストポロジーをサイクルでモデル化するのに十分柔軟である幾何学的帰納バイアスを与える。
論文 参考訳(メタデータ) (2021-06-06T14:23:34Z) - Gauge Equivariant Mesh CNNs: Anisotropic convolutions on geometric
graphs [81.12344211998635]
メッシュ上の畳み込みを定義する一般的なアプローチは、それらをグラフとして解釈し、グラフ畳み込みネットワーク(GCN)を適用することである。
本稿では、GCNを一般化して異方性ゲージ同変カーネルを適用するGauge Equivariant Mesh CNNを提案する。
本実験は,従来のGCNおよび他の手法と比較して,提案手法の表現性を大幅に向上することを示した。
論文 参考訳(メタデータ) (2020-03-11T17:21:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。