論文の概要: Beyond One-Size-Fits-All: Adaptive Subgraph Denoising for Zero-Shot Graph Learning with Large Language Models
- arxiv url: http://arxiv.org/abs/2603.02938v1
- Date: Tue, 03 Mar 2026 12:47:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-04 21:38:10.793954
- Title: Beyond One-Size-Fits-All: Adaptive Subgraph Denoising for Zero-Shot Graph Learning with Large Language Models
- Title(参考訳): 1サイズ以上:大規模言語モデルを用いたゼロショットグラフ学習のための適応的部分グラフ記述法
- Authors: Fengzhi Li, Liang Zhang, Yuan Zuo, Ruiqing Zhao, YanSong Liu, Yunfei Ma, Fanyu Meng, Junlan Feng,
- Abstract要約: ゼロショット設定でのグラフベースのタスクは、データ不足と従来のグラフニューラルネットワークが見えないドメインやラベル空間に一般化できないため、依然として大きな課題である。
ゼロショットLLMグラフ推論における適応サブグラフ抽出とデノベーションのための新しいフレームワークであるGraphSSRを紹介する。
- 参考スコア(独自算出の注目度): 24.141149551300817
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph-based tasks in the zero-shot setting remain a significant challenge due to data scarcity and the inability of traditional Graph Neural Networks (GNNs) to generalize to unseen domains or label spaces. While recent advancements have transitioned toward leveraging Large Language Models (LLMs) as predictors to enhance GNNs, these methods often suffer from cross-modal alignment issues. A recent paradigm (i.e., Graph-R1) overcomes the aforementioned architectural dependencies by adopting a purely text-based format and utilizing LLM-based graph reasoning, showing improved zero-shot generalization. However, it employs a task-agnostic, one-size-fits-all subgraph extraction strategy, which inevitably introduces significant structural noise--irrelevant neighbors and edges--that distorts the LLMs' receptive field and leads to suboptimal predictions. To address this limitation, we introduce GraphSSR, a novel framework designed for adaptive subgraph extraction and denoising in zero-shot LLM-based graph reasoning. Specifically, we propose the SSR pipeline, which dynamically tailors subgraph extraction to specific contexts through a "Sample-Select-Reason" process, enabling the model to autonomously filter out task-irrelevant neighbors and overcome the one-size-fits-all issue. To internalize this capability, we develop SSR-SFT, a data synthesis strategy that generates high-quality SSR-style graph reasoning traces for supervised fine-tuning of LLMs. Furthermore, we propose SSR-RL, a two-stage reinforcement learning framework that explicitly regulates sampling and selection operations within the proposed SSR pipeline designed for adaptive subgraph denoising. By incorporating Authenticity-Reinforced and Denoising-Reinforced RL, we guide the model to achieve accurate predictions using parsimonious, denoised subgraphs for reasoning.
- Abstract(参考訳): ゼロショット設定でのグラフベースのタスクは、データ不足と従来のグラフニューラルネットワーク(GNN)が見えないドメインやラベル空間に一般化できないため、依然として大きな課題である。
近年,大規模言語モデル(LLM)をGNNの予測子として活用する動きが進んでいるが,これらの手法は多種多様なアライメントの問題に悩まされることが多い。
最近のパラダイム(すなわちGraph-R1)は、上述したアーキテクチャ依存を克服し、純粋にテキストベースのフォーマットを採用し、LLMベースのグラフ推論を活用し、ゼロショットの一般化を改善した。
しかし、これはタスクに依存しない全サブグラフ抽出戦略を採用しており、必然的に大きな構造的ノイズをもたらす。
この制限に対処するため,ゼロショットLPMに基づくグラフ推論において,適応的な部分グラフ抽出とデノベーションのために設計された新しいフレームワークであるGraphSSRを導入する。
具体的には、SSRパイプラインを提案する。SSRパイプラインは「Sample-Select-Reason」プロセスを通じて、特定のコンテキストへのサブグラフ抽出を動的に調整し、タスク非関係の隣人を自律的にフィルタリングし、ワンサイズフィットの問題を克服する。
この機能を内部化するために,LLMの教師付き微調整のための高品質なSSRスタイルのグラフ推論トレースを生成するデータ合成戦略であるSSR-SFTを開発した。
さらに,SSR-RLを提案する。SSR-RLは2段階強化学習フレームワークであり,適応的な部分グラフ記述のために設計されたSSRパイプライン内のサンプリングと選択操作を明示的に制御する。
正当性強化RLと復調性強化RLを組み込むことで,解析のための擬似的・復調的部分グラフを用いて正確な予測を行う。
関連論文リスト
- Semi-supervised Instruction Tuning for Large Language Models on Text-Attributed Graphs [62.544129365882014]
本稿では,SIT-Graph というグラフ学習用セミ教師付きインストラクションチューニングパイプラインを提案する。
SIT-Graphはモデルに依存しず、LSMを予測子として利用するグラフ命令チューニングメソッドにシームレスに統合することができる。
SIT-Graphは、最先端グラフチューニング手法に組み込むと、テキスト分散グラフベンチマークの性能を大幅に向上することを示した。
論文 参考訳(メタデータ) (2026-01-19T08:10:53Z) - GILT: An LLM-Free, Tuning-Free Graph Foundational Model for In-Context Learning [50.40400074353263]
グラフニューラルネットワーク(GNN)は、リレーショナルデータを先行する強力なツールであるが、しばしば目に見えないグラフに一般化するのに苦労する。
textbfGraph textbfIn-context textbfL textbfTransformer (GILT)を導入する。
論文 参考訳(メタデータ) (2025-10-06T08:09:15Z) - Are LLMs Better GNN Helpers? Rethinking Robust Graph Learning under Deficiencies with Iterative Refinement [3.2910447933011535]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから学習するコア技術として、Web関連のアプリケーションで広く採用されている。
現実のシナリオでは、そのようなグラフはGNNのパフォーマンスを著しく損なう欠陥を示す。
本稿では,Retrieval-Augmented Contrastive Refinementフレームワークによるロバストグラフ学習を提案する。
論文 参考訳(メタデータ) (2025-10-02T11:30:51Z) - GRIL: Knowledge Graph Retrieval-Integrated Learning with Large Language Models [59.72897499248909]
本稿では,Large Language Models (LLM) を用いたエンドツーエンド学習のための新しいグラフ検索手法を提案する。
抽出したサブグラフでは, 構造的知識と意味的特徴をそれぞれ軟式トークンと言語化グラフで符号化し, LLMに注入する。
提案手法は、複雑な推論タスクに対する結合グラフ-LLM最適化の強みを検証し、最先端の性能を一貫して達成する。
論文 参考訳(メタデータ) (2025-09-20T02:38:00Z) - LOBSTUR: A Local Bootstrap Framework for Tuning Unsupervised Representations in Graph Neural Networks [0.9208007322096533]
グラフニューラルネットワーク(GNN)は、教師なし学習技術と組み合わせて強力なノード表現を学習するために、ますます利用されている。
教師なしグラフ表現学習におけるブートストラップ手法の適用を目的とした新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-20T19:59:35Z) - Scalability Matters: Overcoming Challenges in InstructGLM with Similarity-Degree-Based Sampling [1.2805157669888096]
提案するSDM-InstructGLMは,GNNに依存することなく,拡張性と効率を向上する命令調整グラフ言語モデル(InstructGLM)フレームワークである。
本手法では,ノード間類似度と次数集中度に基づいてグラフ情報を選択的にサンプリングし,符号化する,類似度に基づくバイアス付きランダムウォーク機構を提案する。
本結果は,LLMのみのグラフ処理の実現可能性を示し,命令ベースの微調整によって最適化されたスケーラブルかつ解釈可能なグラフ言語モデル(GLM)を実現する。
論文 参考訳(メタデータ) (2025-05-02T06:08:21Z) - Compile Scene Graphs with Reinforcement Learning [69.36723767339001]
次世代予測は大規模言語モデル(LLM)の訓練の基本原理である
本稿では,マルチモーダルLLM(M-LLM)であるR1-SGGを紹介する。
私たちは、Hard Recall、Hard Recall+Relax、Soft Recallの3つのリコールベースのバリエーションを含む、グラフ中心の報酬セットを設計します。
論文 参考訳(メタデータ) (2025-04-18T10:46:22Z) - RGL: A Graph-Centric, Modular Framework for Efficient Retrieval-Augmented Generation on Graphs [58.10503898336799]
完全なRAGパイプラインをシームレスに統合するモジュラーフレームワークであるRAG-on-Graphs Library(RGL)を紹介した。
RGLは、さまざまなグラフフォーマットをサポートし、必須コンポーネントの最適化実装を統合することで、重要な課題に対処する。
評価の結果,RGLはプロトタイピングプロセスの高速化だけでなく,グラフベースRAGシステムの性能や適用性の向上も図っている。
論文 参考訳(メタデータ) (2025-03-25T03:21:48Z) - Lightweight, Dynamic Graph Convolutional Networks for AMR-to-Text
Generation [56.73834525802723]
軽量な動的グラフ畳み込みネットワーク (LDGCN) を提案する。
LDGCNは入力グラフから高次情報を合成することにより、よりリッチな非局所的な相互作用をキャプチャする。
我々は,グループグラフの畳み込みと重み付き畳み込みに基づく2つの新しいパラメータ保存戦略を開発し,メモリ使用量とモデル複雑性を低減する。
論文 参考訳(メタデータ) (2020-10-09T06:03:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。