論文の概要: H4G: Unlocking Faithful Inference for Zero-Shot Graph Learning in Hyperbolic Space
- arxiv url: http://arxiv.org/abs/2510.12094v1
- Date: Tue, 14 Oct 2025 02:58:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-15 19:02:32.163251
- Title: H4G: Unlocking Faithful Inference for Zero-Shot Graph Learning in Hyperbolic Space
- Title(参考訳): H4G:双曲空間におけるゼロショットグラフ学習のための忠実な推論
- Authors: Heng Zhang, Tianyi Zhang, Zijun Liu, Yuling Shi, Yaomin Shen, Haochen You, Haichuan Hu, Lubin Gan, Jin Huang,
- Abstract要約: 現在のアプローチは過大な双曲型ラジイで動作し、多スケール構造情報を均一な高レベルの抽象化に圧縮する。
この抽象化による情報損失は、正確な予測に不可欠な重要な局所パターンを曖昧にする。
学習可能なブロック対角スケーリング行列とM"obius matrix multiplicationを用いて,埋め込みラジイを体系的に低減するフレームワークである textbfH4G を提案する。
実験により、H4Gはヘテロフィルグラフおよびホモグラフのtextbf12.8%の改善により最先端のゼロショット性能を達成することが示された。
- 参考スコア(独自算出の注目度): 13.686764719918413
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Text-attributed graphs are widely used across domains, offering rich opportunities for zero-shot learning via graph-text alignment. However, existing methods struggle with tasks requiring fine-grained pattern recognition, particularly on heterophilic graphs. Through empirical and theoretical analysis, we identify an \textbf{over-abstraction problem}: current approaches operate at excessively large hyperbolic radii, compressing multi-scale structural information into uniform high-level abstractions. This abstraction-induced information loss obscures critical local patterns essential for accurate predictions. By analyzing embeddings in hyperbolic space, we demonstrate that optimal graph learning requires \textbf{faithful preservation} of fine-grained structural details, better retained by representations positioned closer to the origin. To address this, we propose \textbf{H4G}, a framework that systematically reduces embedding radii using learnable block-diagonal scaling matrices and M\"obius matrix multiplication. This approach restores access to fine-grained patterns while maintaining global receptive ability with minimal computational overhead. Experiments show H4G achieves state-of-the-art zero-shot performance with \textbf{12.8\%} improvement on heterophilic graphs and \textbf{8.4\%} on homophilic graphs, confirming that radius reduction enables faithful multi-scale representation for advancing zero-shot graph learning.
- Abstract(参考訳): テキスト分散グラフはドメイン全体で広く使われており、グラフテキストアライメントによるゼロショット学習の豊富な機会を提供する。
しかし、既存の手法は、特にヘテロ親和性グラフにおいて、きめ細かいパターン認識を必要とするタスクに苦労する。
経験的および理論的解析により、現在のアプローチは過大な双曲型ラジイで動作し、マルチスケール構造情報を均一な高レベルな抽象化に圧縮する。
この抽象化による情報損失は、正確な予測に不可欠な重要な局所パターンを曖昧にする。
双曲空間の埋め込みを解析することにより、最適グラフ学習は、より微細な構造的詳細の「textbf{faithful storage}」を必要とし、原点に近い位置にある表現によりよりよく保持されることを示した。
そこで本研究では,学習可能なブロック対角スケーリング行列とM\\obius行列乗算を用いて,埋め込みラジイを体系的に低減するフレームワークである‘textbf{H4G} を提案する。
このアプローチは、最小の計算オーバーヘッドでグローバルな受容能力を保ちながら、きめ細かいパターンへのアクセスを復元する。
実験により、H4G はヘテロフィルグラフの \textbf{12.8\%} 改善とホモフィルグラフの \textbf{8.4\%} により最先端のゼロショット性能を達成し、半径減少がゼロショットグラフ学習の進歩に忠実なマルチスケール表現を可能にすることを確認した。
関連論文リスト
- Mitigating Over-Squashing in Graph Neural Networks by Spectrum-Preserving Sparsification [81.06278257153835]
本稿では,構造的ボトルネック低減とグラフ特性保存のバランスをとるグラフ再構成手法を提案する。
本手法は、疎性を維持しながら接続性を高めたグラフを生成し、元のグラフスペクトルを大半保存する。
論文 参考訳(メタデータ) (2025-06-19T08:01:00Z) - LocalGCL: Local-aware Contrastive Learning for Graphs [17.04219759259025]
グラフ表現学習者として、アンダーラインローカル認識アンダーライングラフアンダーライン比較アンダーラインラーニング(textbfmethnametrim)を提案する。
実験は、最先端の手法に対するミートネームの優位性を検証し、包括的なグラフ表現学習者としての可能性を実証した。
論文 参考訳(メタデータ) (2024-02-27T09:23:54Z) - Bures-Wasserstein Means of Graphs [60.42414991820453]
本研究では,スムーズなグラフ信号分布の空間への埋め込みを通じて,グラフ平均を定義する新しいフレームワークを提案する。
この埋め込み空間において平均を求めることにより、構造情報を保存する平均グラフを復元することができる。
我々は,新しいグラフの意味の存在と特異性を確立し,それを計算するための反復アルゴリズムを提供する。
論文 参考訳(メタデータ) (2023-05-31T11:04:53Z) - Expander Graph Propagation [0.0]
本稿では,拡張グラフ上での情報伝達に基づくエレガントなアプローチを提案する。
EGPは、セットアップに最小限の労力を要しながら、上記の懸念に対処できることを示します。
我々の分析は、GNNの過剰な監視に対処する、スケーラブルな方法の新たなクラスへの道を開くものだと信じています。
論文 参考訳(メタデータ) (2022-10-06T15:36:37Z) - Geometry Contrastive Learning on Heterogeneous Graphs [50.58523799455101]
本稿では,幾何学コントラスト学習(Geometry Contrastive Learning, GCL)と呼ばれる,新しい自己指導型学習手法を提案する。
GCLはユークリッドと双曲的な視点からヘテロジニアスグラフを同時に見ることができ、リッチな意味論と複雑な構造をモデル化する能力の強い融合を目指している。
4つのベンチマークデータセットの大規模な実験は、提案手法が強いベースラインよりも優れていることを示している。
論文 参考訳(メタデータ) (2022-06-25T03:54:53Z) - A Self-supervised Mixed-curvature Graph Neural Network [76.3790248465522]
自己教師型混合曲率グラフニューラルネットワーク(SelfMGNN)を提案する。
我々は、SelfMGNNが現実の複雑なグラフ構造をキャプチャし、最先端のベースラインを上回っていることを示す。
論文 参考訳(メタデータ) (2021-12-10T08:56:55Z) - Multi-Level Graph Contrastive Learning [38.022118893733804]
本稿では,グラフの空間ビューを対比することで,グラフデータの堅牢な表現を学習するためのマルチレベルグラフコントラスト学習(MLGCL)フレームワークを提案する。
元のグラフは1次近似構造であり、不確実性や誤りを含むが、符号化機能によって生成された$k$NNグラフは高次近接性を保持する。
MLGCLは、7つのデータセット上の既存の最先端グラフ表現学習法と比較して有望な結果が得られることを示す。
論文 参考訳(メタデータ) (2021-07-06T14:24:43Z) - Self-supervised Graph-level Representation Learning with Local and
Global Structure [71.45196938842608]
自己教師付き全グラフ表現学習のためのローカル・インスタンスとグローバル・セマンティック・ラーニング(GraphLoG)という統合フレームワークを提案する。
GraphLoGは、局所的な類似点の保存に加えて、グローバルなセマンティッククラスタをキャプチャする階層的なプロトタイプも導入している。
モデル学習のための効率的なオンライン予測最大化(EM)アルゴリズムがさらに開発された。
論文 参考訳(メタデータ) (2021-06-08T05:25:38Z) - Hierarchical Adaptive Pooling by Capturing High-order Dependency for
Graph Representation Learning [18.423192209359158]
グラフニューラルネットワーク(GNN)はノードレベルのグラフ表現学習タスクでグラフ構造化データを扱うのに十分成熟していることが証明されている。
本稿では,グラフ構造に適応する階層型グラフレベルの表現学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-13T06:22:24Z) - Sub-graph Contrast for Scalable Self-Supervised Graph Representation
Learning [21.0019144298605]
既存のグラフニューラルネットワークは、計算量やメモリコストが限られているため、完全なグラフデータで供給される。
textscSubg-Conは、中央ノードとそのサンプルサブグラフ間の強い相関を利用して、地域構造情報をキャプチャすることで提案される。
既存のグラフ表現学習アプローチと比較して、textscSubg-Conは、より弱い監視要件、モデル学習のスケーラビリティ、並列化において、顕著なパフォーマンス上のアドバンテージを持っています。
論文 参考訳(メタデータ) (2020-09-22T01:58:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。