論文の概要: Are LLMs Better GNN Helpers? Rethinking Robust Graph Learning under Deficiencies with Iterative Refinement
- arxiv url: http://arxiv.org/abs/2510.01910v1
- Date: Thu, 02 Oct 2025 11:30:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:21.103327
- Title: Are LLMs Better GNN Helpers? Rethinking Robust Graph Learning under Deficiencies with Iterative Refinement
- Title(参考訳): LLMはより良いGNNヘルパーか? 反復的リファインメントの欠陥下でのロバストグラフ学習を再考する
- Authors: Zhaoyan Wang, Zheng Gao, Arogya Kharel, In-Young Ko,
- Abstract要約: グラフニューラルネットワーク(GNN)は、グラフ構造化データから学習するコア技術として、Web関連のアプリケーションで広く採用されている。
現実のシナリオでは、そのようなグラフはGNNのパフォーマンスを著しく損なう欠陥を示す。
本稿では,Retrieval-Augmented Contrastive Refinementフレームワークによるロバストグラフ学習を提案する。
- 参考スコア(独自算出の注目度): 3.2910447933011535
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks (GNNs) are widely adopted in Web-related applications, serving as a core technique for learning from graph-structured data, such as text-attributed graphs. Yet in real-world scenarios, such graphs exhibit deficiencies that substantially undermine GNN performance. While prior GNN-based augmentation studies have explored robustness against individual imperfections, a systematic understanding of how graph-native and Large Language Models (LLMs) enhanced methods behave under compound deficiencies is still missing. Specifically, there has been no comprehensive investigation comparing conventional approaches and recent LLM-on-graph frameworks, leaving their merits unclear. To fill this gap, we conduct the first empirical study that benchmarks these two lines of methods across diverse graph deficiencies, revealing overlooked vulnerabilities and challenging the assumption that LLM augmentation is consistently superior. Building on empirical findings, we propose Robust Graph Learning via Retrieval-Augmented Contrastive Refinement (RoGRAD) framework. Unlike prior one-shot LLM-as-Enhancer designs, RoGRAD is the first iterative paradigm that leverages Retrieval-Augmented Generation (RAG) to inject retrieval-grounded augmentations by supplying class-consistent, diverse augmentations and enforcing discriminative representations through iterative graph contrastive learning. It transforms LLM augmentation for graphs from static signal injection into dynamic refinement. Extensive experiments demonstrate RoGRAD's superiority over both conventional GNN- and LLM-enhanced baselines, achieving up to 82.43% average improvement.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、テキスト分散グラフなどのグラフ構造化データから学習するコア技術として、Web関連のアプリケーションで広く採用されている。
しかし、現実のシナリオでは、そのようなグラフはGNNのパフォーマンスを著しく損なう欠陥を示す。
従来のGNNベースの拡張研究では、個々の欠陥に対する堅牢性について検討されてきたが、グラフネイティブおよび大規模言語モデル(LLM)拡張メソッドの動作に関する体系的な理解はまだ欠如している。
特に、従来のアプローチと最近のLCM-on-graphフレームワークを総合的に比較した調査は行われておらず、そのメリットは明らかでない。
このギャップを埋めるために、我々は、これらの2行のメソッドを様々なグラフ欠陥にわたってベンチマークし、見過ごされた脆弱性を明らかにし、LLM拡張が一貫して優れているという仮定に挑戦する最初の経験的研究を行った。
実験結果に基づいて,RoGRAD(Retrieval-Augmented Contrastive Refinement)フレームワークを用いたロバストグラフ学習を提案する。
従来の一発LLM-as-Enhancer設計とは異なり、RoGRADは、反復グラフの対照的な学習を通じて、クラス一貫性と多様な拡張を供給し、識別的表現を強制することにより、検索対象の強化を注入する、レトリーバル拡張生成(RAG)を利用する最初の反復パラダイムである。
グラフのLLM拡張を静的信号注入からダイナミックリファインメントに変換する。
大規模な実験により、RoGRADは従来のGNNベースラインとLLMベースラインの両方よりも優れていることが示され、平均82.43%の改善が達成された。
関連論文リスト
- G-reasoner: Foundation Models for Unified Reasoning over Graph-structured Knowledge [88.82814893945077]
大規模言語モデル(LLM)は複雑な推論において優れているが、静的かつ不完全なパラメトリック知識によって制限される。
最近のグラフ強化RAG (GraphRAG) は、このギャップを補足したグラフを構築し、LLMがそれらを推論できるようにする。
G-reasonerは、様々なグラフ構造化知識を推論するためにグラフと言語基盤モデルを統合した統合フレームワークである。
論文 参考訳(メタデータ) (2025-09-29T04:38:12Z) - A Recipe for Causal Graph Regression: Confounding Effects Revisited [10.615260306723536]
因果グラフ学習(CGL)は、アウト・オブ・ディストリビューション(OOD)シナリオ下でグラフニューラルネットワークの一般化性を改善するための有望なアプローチである。
我々は、グラフ学習においてより困難な設定である因果回帰(CGR)に取り組むことに注力する。
我々は,グラフレベルの回帰における共同創設者の予測力を反映し,対比学習のレンズを通して分類特化因果介入手法を回帰に一般化する。
論文 参考訳(メタデータ) (2025-07-01T05:46:29Z) - Learning Efficient and Generalizable Graph Retriever for Knowledge-Graph Question Answering [75.12322966980003]
大規模言語モデル(LLM)は、様々な領域にわたって強い帰納的推論能力を示している。
既存のRAGパイプラインのほとんどは非構造化テキストに依存しており、解釈可能性と構造化推論を制限する。
近年,知識グラフ解答のための知識グラフとLLMの統合について検討している。
KGQAにおける効率的なグラフ検索のための新しいフレームワークであるRAPLを提案する。
論文 参考訳(メタデータ) (2025-06-11T12:03:52Z) - Graph Structure Refinement with Energy-based Contrastive Learning [56.957793274727514]
グラフの構造と表現を学習するための生成訓練と識別訓練のジョイントに基づく教師なし手法を提案する。
本稿では,ECL-GSR(Energy-based Contrastive Learning)によるグラフ構造再構成(GSR)フレームワークを提案する。
ECL-GSRは、主要なベースラインに対するサンプルやメモリの少ない高速なトレーニングを実現し、下流タスクの単純さと効率性を強調している。
論文 参考訳(メタデータ) (2024-12-20T04:05:09Z) - Disentangled Generative Graph Representation Learning [51.59824683232925]
本稿では,自己教師型学習フレームワークであるDiGGR(Disentangled Generative Graph Representation Learning)を紹介する。
潜伏要因を学習し、それをグラフマスクモデリングのガイドとして活用することを目的としている。
2つの異なるグラフ学習タスクのための11の公開データセットの実験は、DiGGRが従来よりも一貫して多くの自己教師付きメソッドを上回っていることを示している。
論文 参考訳(メタデータ) (2024-08-24T05:13:02Z) - Graph Contrastive Learning with Low-Rank Regularization and Low-Rank Attention for Noisy Node Classification [8.905020033545643]
本稿では,GCL-LRR (Graph Contrastive Learning with Low-Rank Regularization) という,頑健で革新的なノード表現学習手法を提案する。
GCL-LRRはノード分類のための2段階のトランスダクティブ学習フレームワークである。
本稿では,新しいLR-Attention層をGCL-LRRに組み込んだ改良モデルGCL-LR-Attentionを提案する。
論文 参考訳(メタデータ) (2024-02-14T22:15:37Z) - Learning to Reweight for Graph Neural Network [63.978102332612906]
グラフニューラルネットワーク(GNN)は、グラフタスクに対して有望な結果を示す。
既存のGNNの一般化能力は、テストとトレーニンググラフデータの間に分散シフトが存在する場合に低下する。
本稿では,分布外一般化能力を大幅に向上させる非線形グラフデコリレーション法を提案する。
論文 参考訳(メタデータ) (2023-12-19T12:25:10Z) - Quantifying the Optimization and Generalization Advantages of Graph Neural Networks Over Multilayer Perceptrons [50.33260238739837]
グラフネットワーク(GNN)は、グラフ構造化データから学習する際、顕著な能力を示した。
最適化と一般化の観点から、GNNと一般化を比較した分析の欠如がまだ残っている。
論文 参考訳(メタデータ) (2023-06-24T10:21:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。