論文の概要: Large Language Models Meet Text-Attributed Graphs: A Survey of Integration Frameworks and Applications
- arxiv url: http://arxiv.org/abs/2510.21131v1
- Date: Fri, 24 Oct 2025 03:53:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 09:00:15.378201
- Title: Large Language Models Meet Text-Attributed Graphs: A Survey of Integration Frameworks and Applications
- Title(参考訳): 大規模言語モデルとテキスト分散グラフ:統合フレームワークとアプリケーションに関する調査
- Authors: Guangxin Su, Hanchen Wang, Jianwei Wang, Wenjie Zhang, Ying Zhang, Jian Pei,
- Abstract要約: 大規模言語モデル(LLM)は、強力な意味理解と生成を通じて自然言語処理において顕著な成功を収めた。
近年の研究では,LLM と Text-Attributed Graphs (TAG) を組み合わせることで,相補的なメリットが得られている。
この調査は、オーケストレーションの観点からLLM--TAG統合に関する最初の体系的なレビューを提供する。
- 参考スコア(独自算出の注目度): 14.773541046977355
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) have achieved remarkable success in natural language processing through strong semantic understanding and generation. However, their black-box nature limits structured and multi-hop reasoning. In contrast, Text-Attributed Graphs (TAGs) provide explicit relational structures enriched with textual context, yet often lack semantic depth. Recent research shows that combining LLMs and TAGs yields complementary benefits: enhancing TAG representation learning and improving the reasoning and interpretability of LLMs. This survey provides the first systematic review of LLM--TAG integration from an orchestration perspective. We introduce a novel taxonomy covering two fundamental directions: LLM for TAG, where LLMs enrich graph-based tasks, and TAG for LLM, where structured graphs improve LLM reasoning. We categorize orchestration strategies into sequential, parallel, and multi-module frameworks, and discuss advances in TAG-specific pretraining, prompting, and parameter-efficient fine-tuning. Beyond methodology, we summarize empirical insights, curate available datasets, and highlight diverse applications across recommendation systems, biomedical analysis, and knowledge-intensive question answering. Finally, we outline open challenges and promising research directions, aiming to guide future work at the intersection of language and graph learning.
- Abstract(参考訳): 大規模言語モデル(LLM)は、強力な意味理解と生成を通じて自然言語処理において顕著な成功を収めた。
しかしながら、ブラックボックスの性質は構造化され、マルチホップ推論に制限される。
対照的に、Text-Attributed Graphs (TAG)は、テキストコンテキストに富んだ明示的なリレーショナル構造を提供するが、しばしば意味的な深さを欠いている。
近年の研究では、LLMとTAGの組み合わせは、TAG表現学習の強化とLLMの推論と解釈性の改善という相補的な利点をもたらすことが示されている。
この調査は、オーケストレーションの観点からLLM--TAG統合に関する最初の体系的なレビューを提供する。
本稿では, LLM がグラフベースタスクを充実させる TAG と, 構造化グラフが LLM 推論を改善する LLM の2つの基本的な方向をカバーする新しい分類法を提案する。
我々は、オーケストレーション戦略を逐次、並列、マルチモジュールのフレームワークに分類し、TAG固有の事前訓練、プロンプト、パラメータ効率の微調整の進歩について議論する。
方法論以外にも、経験的洞察を要約し、利用可能なデータセットをキュレートし、レコメンデーションシステム、バイオメディカル分析、知識集約型質問応答など多種多様なアプリケーションを強調します。
最後に,言語とグラフ学習の交差点における今後の研究の指針として,オープンな課題の概要と今後の研究方向性について述べる。
関連論文リスト
- Unify Graph Learning with Text: Unleashing LLM Potentials for Session Search [35.20525123189316]
セッション検索は、ユーザの複雑な情報ニーズを満たすための一連の対話的なクエリとアクションを含む。
現在の戦略は、相互作用のグラフ構造を見渡すことで、深い意味理解のためのシーケンシャルなモデリングを優先している。
テキストベースとグラフベースの両方のアプローチを活用することを目的としたSGR(Symbolic Graph Ranker)を提案する。
論文 参考訳(メタデータ) (2025-05-20T10:05:06Z) - When Text Embedding Meets Large Language Model: A Comprehensive Survey [37.656006634893046]
この調査は、大きな言語モデル(LLM)とテキスト埋め込みの相互作用に焦点を当てている。
様々な研究および応用分野からの貢献の、新しく体系的な概要を提供する。
この分析に基づいて,テキスト埋め込みの進化に向けた今後の方向性を概説する。
論文 参考訳(メタデータ) (2024-12-12T10:50:26Z) - Structure Guided Prompt: Instructing Large Language Model in Multi-Step
Reasoning by Exploring Graph Structure of the Text [44.81698187939784]
本稿では,大規模言語モデル(LLM)の多段階推論能力向上を目的としたフレームワークであるStructure Guided Promptを紹介する。
実験の結果,このフレームワークはLLMの推論能力を大幅に向上し,より広い範囲の自然言語シナリオを拡張できることがわかった。
論文 参考訳(メタデータ) (2024-02-20T22:56:23Z) - Disentangled Representation Learning with Large Language Models for
Text-Attributed Graphs [57.052160123387104]
本稿では,TAGに対するLLMの推論と予測能力を向上させることができるDGTLモデルを提案する。
提案するDGTLモデルでは, グラフ構造情報をGNN層に組み込む。
実験により,提案したDGTLモデルにより,最先端のベースラインよりも優れた性能,あるいは同等の性能が得られることを示した。
論文 参考訳(メタデータ) (2023-10-27T14:00:04Z) - Harnessing Explanations: LLM-to-LM Interpreter for Enhanced
Text-Attributed Graph Representation Learning [51.90524745663737]
重要なイノベーションは、機能として説明を使用することで、下流タスクにおけるGNNのパフォーマンス向上に利用できます。
提案手法は、確立されたTAGデータセットの最先端結果を実現する。
本手法はトレーニングを著しく高速化し,ogbn-arxivのベースラインに最も近い2.88倍の改善を実現した。
論文 参考訳(メタデータ) (2023-05-31T03:18:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。