論文の概要: LLM as Graph Kernel: Rethinking Message Passing on Text-Rich Graphs
- arxiv url: http://arxiv.org/abs/2603.14937v1
- Date: Mon, 16 Mar 2026 07:40:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:36.138012
- Title: LLM as Graph Kernel: Rethinking Message Passing on Text-Rich Graphs
- Title(参考訳): LLM as Graph Kernel: Text-Rich Graphsでのメッセージパッシングの再考
- Authors: Ying Zhang, Hang Yu, Haipeng Zhang, Peng Di,
- Abstract要約: テキストリッチグラフに対するRaw-text Anchored Message PassingアプローチであるRAMPを紹介する。
RAMPは、新しい二重表現スキームを通じて、グラフのテキストリッチな性質を利用する。
大規模な実験により、RAMPはグラフ伝播と深層テキスト推論のギャップを効果的に埋めることを示した。
- 参考スコア(独自算出の注目度): 18.509779826302196
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Text-rich graphs, which integrate complex structural dependencies with abundant textual information, are ubiquitous yet remain challenging for existing learning paradigms. Conventional methods and even LLM-hybrids compress rich text into static embeddings or summaries before structural reasoning, creating an information bottleneck and detaching updates from the raw content. We argue that in text-rich graphs, the text is not merely a node attribute but the primary medium through which structural relationships are manifested. We introduce RAMP, a Raw-text Anchored Message Passing approach that moves beyond using LLMs as mere feature extractors and instead recasts the LLM itself as a graph-native aggregation operator. RAMP exploits the text-rich nature of the graph via a novel dual-representation scheme: it anchors inference on each node's raw text during each iteration while propagating dynamically optimized messages from neighbors. It further handles both discriminative and generative tasks under a single unified generative formulation. Extensive experiments show that RAMP effectively bridges the gap between graph propagation and deep text reasoning, achieving competitive performance and offering new insights into the role of LLMs as graph kernels for general-purpose graph learning.
- Abstract(参考訳): 複雑な構造的依存関係と豊富なテキスト情報を統合するテキストリッチグラフは、既存の学習パラダイムでは依然として困難である。
従来の方法やLLM-hybridsは、構造的推論の前にリッチテキストを静的な埋め込みや要約に圧縮し、情報のボトルネックを生成し、生のコンテンツから更新を取り除きます。
テキストリッチグラフでは、テキストは単にノード属性ではなく、構造的関係が表される主要な媒体であると主張する。
我々は,LLMを単なる特徴抽出器として使用することを超えて,LLM自体をグラフネイティブ集約演算子として再キャストするRaw-text Anchored Message PassingアプローチであるRAMPを紹介する。
RAMPは、新しい二重表現方式によってグラフのテキストリッチな性質を生かし、各イテレーション中に各ノードの生テキストに対する推論をアンロックし、隣人からの動的に最適化されたメッセージを伝搬する。
さらに、単一の統合された生成的定式化の下で、識別的タスクと生成的タスクの両方を扱う。
大規模な実験により、RAMPはグラフ伝播と深層テキスト推論のギャップを効果的に埋め、競争性能を達成し、汎用グラフ学習のためのグラフカーネルとしてのLLMの役割に関する新たな洞察を提供する。
関連論文リスト
- Graph-O1 : Monte Carlo Tree Search with Reinforcement Learning for Text-Attributed Graph Reasoning [7.792321858331646]
Graph-O1はエージェント的なGraphRAGフレームワークで、LCMがグラフ上で段階的にインタラクティブな推論を実行できる。
提案手法はモンテカルロ木探索(MCTS)とエンドツーエンドの強化学習を統合し,最も情報に富む部分グラフの探索と検索を可能にする。
論文 参考訳(メタデータ) (2025-11-26T21:32:04Z) - DGP: A Dual-Granularity Prompting Framework for Fraud Detection with Graph-Enhanced LLMs [55.13817504780764]
実世界の不正検出アプリケーションは、しばしばテキストデータに富んだノード特徴とグラフ構造情報を共同で活用するグラフ学習技術の恩恵を受ける。
グラフ強化LSMは、グラフ情報をプロンプトに変換する、有望なグラフ学習アプローチとして登場します。
目的ノードの細粒度テキストの詳細を保存し,情報過負荷を軽減するDGPを提案する。
論文 参考訳(メタデータ) (2025-07-29T10:10:47Z) - Unify Graph Learning with Text: Unleashing LLM Potentials for Session Search [35.20525123189316]
セッション検索は、ユーザの複雑な情報ニーズを満たすための一連の対話的なクエリとアクションを含む。
現在の戦略は、相互作用のグラフ構造を見渡すことで、深い意味理解のためのシーケンシャルなモデリングを優先している。
テキストベースとグラフベースの両方のアプローチを活用することを目的としたSGR(Symbolic Graph Ranker)を提案する。
論文 参考訳(メタデータ) (2025-05-20T10:05:06Z) - Deep Semantic Graph Learning via LLM based Node Enhancement [5.312946761836463]
大規模言語モデル(LLM)は、テキストセマンティクスを理解する上で優れた能力を示している。
本稿では,グラフトランスフォーマーアーキテクチャとLLM拡張ノード機能を組み合わせた新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-11T21:55:46Z) - Hierarchical Compression of Text-Rich Graphs via Large Language Models [63.75293588479027]
テキストリッチグラフは、eコマースや学術グラフのようなデータマイニングの文脈で広く使われている。
本稿では,LLMの能力とテキストリッチグラフの構造を整合させる新しい手法であるHiComを紹介する。
HiComは、Eコマースと引用グラフのノード分類において、GNNとLLMのバックボーンよりも優れている。
論文 参考訳(メタデータ) (2024-06-13T07:24:46Z) - Harnessing Explanations: LLM-to-LM Interpreter for Enhanced
Text-Attributed Graph Representation Learning [51.90524745663737]
重要なイノベーションは、機能として説明を使用することで、下流タスクにおけるGNNのパフォーマンス向上に利用できます。
提案手法は、確立されたTAGデータセットの最先端結果を実現する。
本手法はトレーニングを著しく高速化し,ogbn-arxivのベースラインに最も近い2.88倍の改善を実現した。
論文 参考訳(メタデータ) (2023-05-31T03:18:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。