論文の概要: Unify Graph Learning with Text: Unleashing LLM Potentials for Session Search
- arxiv url: http://arxiv.org/abs/2505.14156v1
- Date: Tue, 20 May 2025 10:05:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-21 14:49:53.048887
- Title: Unify Graph Learning with Text: Unleashing LLM Potentials for Session Search
- Title(参考訳): テキストによるグラフ学習の統一 - セッション検索のためのLLMポテンシャルの解放
- Authors: Songhao Wu, Quan Tu, Hong Liu, Jia Xu, Zhongyi Liu, Guannan Zhang, Ran Wang, Xiuying Chen, Rui Yan,
- Abstract要約: セッション検索は、ユーザの複雑な情報ニーズを満たすための一連の対話的なクエリとアクションを含む。
現在の戦略は、相互作用のグラフ構造を見渡すことで、深い意味理解のためのシーケンシャルなモデリングを優先している。
テキストベースとグラフベースの両方のアプローチを活用することを目的としたSGR(Symbolic Graph Ranker)を提案する。
- 参考スコア(独自算出の注目度): 35.20525123189316
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Session search involves a series of interactive queries and actions to fulfill user's complex information need. Current strategies typically prioritize sequential modeling for deep semantic understanding, overlooking the graph structure in interactions. While some approaches focus on capturing structural information, they use a generalized representation for documents, neglecting the word-level semantic modeling. In this paper, we propose Symbolic Graph Ranker (SGR), which aims to take advantage of both text-based and graph-based approaches by leveraging the power of recent Large Language Models (LLMs). Concretely, we first introduce a set of symbolic grammar rules to convert session graph into text. This allows integrating session history, interaction process, and task instruction seamlessly as inputs for the LLM. Moreover, given the natural discrepancy between LLMs pre-trained on textual corpora, and the symbolic language we produce using our graph-to-text grammar, our objective is to enhance LLMs' ability to capture graph structures within a textual format. To achieve this, we introduce a set of self-supervised symbolic learning tasks including link prediction, node content generation, and generative contrastive learning, to enable LLMs to capture the topological information from coarse-grained to fine-grained. Experiment results and comprehensive analysis on two benchmark datasets, AOL and Tiangong-ST, confirm the superiority of our approach. Our paradigm also offers a novel and effective methodology that bridges the gap between traditional search strategies and modern LLMs.
- Abstract(参考訳): セッション検索は、ユーザの複雑な情報ニーズを満たすための一連の対話的なクエリとアクションを含む。
現在の戦略は、相互作用のグラフ構造を見渡すことで、深い意味理解のためのシーケンシャルなモデリングを優先している。
構造情報の取得に焦点をあてるアプローチもあるが、文書に一般化された表現を使用し、単語レベルのセマンティックモデリングを無視するアプローチもある。
本稿では,最近のLarge Language Models(LLMs)のパワーを活用して,テキストベースとグラフベースの両方のアプローチを活用することを目的とした,SGR(Symbolic Graph Ranker)を提案する。
具体的には、まず、セッショングラフをテキストに変換するためのシンボリック文法ルールのセットを導入する。
これにより、セッション履歴、インタラクションプロセス、タスク命令をLLMの入力としてシームレスに統合することができる。
さらに、テキストコーパス上で事前学習されたLLMと、グラフからテキストへの文法を用いた記号言語との自然な相違を考えると、LLMがテキストフォーマット内でグラフ構造をキャプチャする能力を高めることが目的である。
これを実現するために、リンク予測、ノードコンテンツ生成、生成コントラスト学習を含む自己教師付き記号学習タスクのセットを導入し、LLMが粗い粒度からきめ細かな粒度までトポロジ情報をキャプチャできるようにする。
AOLとTiangong-STという2つのベンチマークデータセットの実験結果と包括的な分析により、我々のアプローチの優位性が確認された。
我々のパラダイムは、従来の検索戦略と現代のLLMのギャップを埋める、新しく効果的な方法論も提供しています。
関連論文リスト
- Deep Semantic Graph Learning via LLM based Node Enhancement [5.312946761836463]
大規模言語モデル(LLM)は、テキストセマンティクスを理解する上で優れた能力を示している。
本稿では,グラフトランスフォーマーアーキテクチャとLLM拡張ノード機能を組み合わせた新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-11T21:55:46Z) - SocialGPT: Prompting LLMs for Social Relation Reasoning via Greedy Segment Optimization [70.11167263638562]
社会的関係推論は、友人、配偶者、同僚などの関係カテゴリを画像から識別することを目的としている。
まず、VFM(Vision Foundation Models)の知覚能力と、モジュラーフレームワーク内でのLLM(Large Language Models)の推論能力を組み合わせた、シンプルだが巧妙な名前のフレームワークを提示する。
論文 参考訳(メタデータ) (2024-10-28T18:10:26Z) - A Survey of Large Language Models for Graphs [21.54279919476072]
我々は、グラフ学習に適用された最新の最先端の大規模言語モデルについて、詳細なレビューを行う。
フレームワーク設計に基づいて既存の手法を分類する新しい分類法を提案する。
各フレームワークの長所と短所について検討し,今後の研究への可能性を強調する。
論文 参考訳(メタデータ) (2024-05-10T18:05:37Z) - Large Language Models on Graphs: A Comprehensive Survey [77.16803297418201]
グラフ上の大規模言語モデルに関連するシナリオとテクニックを体系的にレビューする。
まず,LLMをグラフに適用する可能性シナリオを,純グラフ,テキスト分散グラフ,テキストペアグラフの3つのカテゴリにまとめる。
本稿では,そのような手法の現実的な応用について論じ,オープンソースコードとベンチマークデータセットを要約する。
論文 参考訳(メタデータ) (2023-12-05T14:14:27Z) - Which Modality should I use -- Text, Motif, or Image? : Understanding Graphs with Large Language Models [14.251972223585765]
本稿では,テキスト,画像,モチーフなどの多様性を持つグラフを符号化する新たな手法を提案する。
また、グラフ構造解析において、LLM(Large Language Models)を評価するための新しいベンチマークであるGraphTMIも提示されている。
論文 参考訳(メタデータ) (2023-11-16T12:45:41Z) - Harnessing Explanations: LLM-to-LM Interpreter for Enhanced
Text-Attributed Graph Representation Learning [51.90524745663737]
重要なイノベーションは、機能として説明を使用することで、下流タスクにおけるGNNのパフォーマンス向上に利用できます。
提案手法は、確立されたTAGデータセットの最先端結果を実現する。
本手法はトレーニングを著しく高速化し,ogbn-arxivのベースラインに最も近い2.88倍の改善を実現した。
論文 参考訳(メタデータ) (2023-05-31T03:18:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。