論文の概要: GraphIF: Enhancing Multi-Turn Instruction Following for Large Language Models with Relation Graph Prompt
- arxiv url: http://arxiv.org/abs/2511.10051v1
- Date: Fri, 14 Nov 2025 01:28:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-14 22:53:22.66609
- Title: GraphIF: Enhancing Multi-Turn Instruction Following for Large Language Models with Relation Graph Prompt
- Title(参考訳): GraphIF:リレーショナルグラフプロンプトを持つ大規模言語モデルに対するマルチスレッド命令追従の強化
- Authors: Zhenhe Li, Can Lin, Ling Zheng, Wen-Da Wei, Junli Liang, Qi Song,
- Abstract要約: 対話を通した命令に従うインテリジェントな対話システムを構築するためには,マルチターンインストラクションが不可欠である。
既存のマルチターン命令の強化アプローチは、主に大規模なマルチターン対話データセットの収集や生成に依存している。
マルチターン対話を有向関係グラフとしてモデル化し,グラフプロンプトを活用して命令追従機能を向上させるための,プラグイン・アンド・プレイフレームワークであるGraphIFを提案する。
- 参考スコア(独自算出の注目度): 8.491557907744523
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-turn instruction following is essential for building intelligent conversational systems that can consistently adhere to instructions across dialogue turns. However, existing approaches to enhancing multi-turn instruction following primarily rely on collecting or generating large-scale multi-turn dialogue datasets to fine-tune large language models (LLMs), which treat each response generation as an isolated task and fail to explicitly incorporate multi-turn instruction following into the optimization objectives. As a result, instruction-tuned LLMs often struggle with complex long-distance constraints. In multi-turn dialogues, relational constraints across turns can be naturally modeled as labeled directed edges, making graph structures particularly suitable for modeling multi-turn instruction following. Despite this potential, leveraging graph structures to enhance the multi-turn instruction following capabilities of LLMs remains unexplored. To bridge this gap, we propose GraphIF, a plug-and-play framework that models multi-turn dialogues as directed relation graphs and leverages graph prompts to enhance the instruction following capabilities of LLMs. GraphIF comprises three key components: (1) an agent-based relation extraction module that captures inter-turn semantic relations via action-triggered mechanisms to construct structured graphs; (2) a relation graph prompt generation module that converts structured graph information into natural language prompts; and (3) a response rewriting module that refines initial LLM outputs using the generated graph prompts. Extensive experiments on two long multi-turn dialogue datasets demonstrate that GraphIF can be seamlessly integrated into instruction-tuned LLMs and leads to significant improvements across all four multi-turn instruction-following evaluation metrics.
- Abstract(参考訳): マルチターンインストラクションは、対話のターンをまたいで命令に一貫して準拠できるインテリジェントな会話システムを構築するために欠かせないものである。
しかし、既存のマルチターン命令の強化アプローチは、主に大規模マルチターン対話データセットの収集と生成に依存しており、各応答生成を独立したタスクとして扱い、その後に続くマルチターン命令を最適化目的に明示的に組み込むことができない。
その結果、命令付きLLMは複雑な長距離制約に悩まされることが多い。
マルチターン対話では、ターン間の関係制約をラベル付き有向エッジとして自然にモデル化することができ、グラフ構造を特にマルチターン命令のモデリングに適している。
この可能性にもかかわらず、LLMのマルチターン命令の強化にグラフ構造を活用することは未定である。
このギャップを埋めるため,マルチターン対話を有向関係グラフとしてモデル化し,グラフプロンプトを活用してLLMの命令追従能力を向上するプラグイン・アンド・プレイ・フレームワークであるGraphIFを提案する。
GraphIFは,(1)構造化グラフを構成するためのアクショントリガー機構を介してターン間の意味関係をキャプチャするエージェントベースの関係抽出モジュール,(2)構造化グラフ情報を自然言語プロンプトに変換する関係グラフプロンプト生成モジュール,(3)生成されたグラフプロンプトを用いて初期LLM出力を洗練する応答書き換えモジュールの3つのキーコンポーネントから構成される。
2つの長いマルチターン対話データセットに対する大規模な実験により、GraphIFは命令調整されたLLMにシームレスに統合可能であることが示され、4つのマルチターン命令追従評価指標に大きく改善が加えられた。
関連論文リスト
- Graph4MM: Weaving Multimodal Learning with Structural Information [52.16646463590474]
グラフは、モーダル内およびモーダル間関係をモデル化するための強力な構造情報を提供する。
それまでの作業では、マルチホップの隣人を区別できず、グラフをスタンドアローンのモダリティとして扱う。
グラフベースのマルチモーダル学習フレームワークであるGraph4MMを提案する。
論文 参考訳(メタデータ) (2025-10-19T20:13:03Z) - GRIL: Knowledge Graph Retrieval-Integrated Learning with Large Language Models [59.72897499248909]
本稿では,Large Language Models (LLM) を用いたエンドツーエンド学習のための新しいグラフ検索手法を提案する。
抽出したサブグラフでは, 構造的知識と意味的特徴をそれぞれ軟式トークンと言語化グラフで符号化し, LLMに注入する。
提案手法は、複雑な推論タスクに対する結合グラフ-LLM最適化の強みを検証し、最先端の性能を一貫して達成する。
論文 参考訳(メタデータ) (2025-09-20T02:38:00Z) - MLaGA: Multimodal Large Language and Graph Assistant [9.985787670804823]
大規模言語モデル (LLMs) は, グラフ構造化データ解析の進歩に有効であることを示す。
複雑なグラフ構造やマルチモーダル属性の推論を容易にするため,LLM機能を拡張する革新的なモデルであるMultimodal Large Language and Graph Assistant (MLaGA)を導入する。
論文 参考訳(メタデータ) (2025-06-03T07:52:00Z) - Graph-oriented Instruction Tuning of Large Language Models for Generic Graph Mining [36.366468326267004]
MuseGraphはタスクとデータセットをまたいだグラフマイニングのためのフレームワークである。
グラフニューラルネットワーク(GNN)と大規模言語モデル(LLM)の長所をシームレスに統合する。
実験の結果,5つのグラフタスクと10のデータセットにおいて,大幅な改善が示された。
論文 参考訳(メタデータ) (2024-03-02T09:27:32Z) - Structure Guided Prompt: Instructing Large Language Model in Multi-Step
Reasoning by Exploring Graph Structure of the Text [44.81698187939784]
本稿では,大規模言語モデル(LLM)の多段階推論能力向上を目的としたフレームワークであるStructure Guided Promptを紹介する。
実験の結果,このフレームワークはLLMの推論能力を大幅に向上し,より広い範囲の自然言語シナリオを拡張できることがわかった。
論文 参考訳(メタデータ) (2024-02-20T22:56:23Z) - Multimodal Graph Learning for Generative Tasks [89.44810441463652]
マルチモーダル学習は、複数のデータモダリティを組み合わせることで、モデルが利用できるデータの種類と複雑さを広げます。
本稿では,マルチモーダルグラフ学習(MMGL)を提案する。
論文 参考訳(メタデータ) (2023-10-11T13:25:03Z) - Fine-tuning Multimodal LLMs to Follow Zero-shot Demonstrative Instructions [126.3136109870403]
汎用的で軽量なVisual Prompt Generator Complete Module (VPG-C)を導入する。
VPG-Cは、実証的な指示を解釈するために欠落した詳細を推測し、完成する。
私たちは、実証的な命令理解のための包括的なベンチマークであるDEMONを構築します。
論文 参考訳(メタデータ) (2023-08-08T09:32:43Z) - Graphologue: Exploring Large Language Model Responses with Interactive
Diagrams [6.79341019029299]
大規模言語モデル(LLM)は、アクセスの容易さと、多様なユーザ質問にテキスト応答を合成する前例のない能力により、最近人気が高まっている。
本稿では,LLMからのテキストベースの応答をグラフィカルな図形に変換する対話型システムであるGraphologueについて述べる。
論文 参考訳(メタデータ) (2023-05-19T06:53:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。