論文の概要: Efficient Graph Understanding with LLMs via Structured Context Injection
- arxiv url: http://arxiv.org/abs/2509.00740v1
- Date: Sun, 31 Aug 2025 08:07:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.368012
- Title: Efficient Graph Understanding with LLMs via Structured Context Injection
- Title(参考訳): 構造化文脈注入によるLLMを用いた効率的なグラフ理解
- Authors: Govind Waghmare, Sumedh BG, Sonia Gupta, Srikanta Bedathur,
- Abstract要約: 本稿では,タスク固有の情報を入力に体系的に組み込んでLLMを誘導し,幅広いグラフ問題を解く構造化コンテキスト注入フレームワークを提案する。
LLMの微調整は不要であり、コスト効率と軽量化を実現している。
我々は,軽量モデルと大規模モデルの両方を用いて,複数のグラフタスクに対するアプローチを評価し,精度と計算コストのトレードオフを強調した。
- 参考スコア(独自算出の注目度): 8.393355845456659
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) have shown strong capabilities in solving problems across domains, including graph-related tasks traditionally addressed by symbolic or algorithmic methods. In this work, we present a framework for structured context injection, where task-specific information is systematically embedded in the input to guide LLMs in solving a wide range of graph problems. Our method does not require fine-tuning of LLMs, making it cost-efficient and lightweight. We observe that certain graph reasoning tasks remain challenging for LLMs unless they are mapped to conceptually grounded representations. However, achieving such mappings through fine-tuning or repeated multi-step querying can be expensive and inefficient. Our approach offers a practical alternative by injecting structured context directly into the input, enabling the LLM to implicitly align the task with grounded conceptual spaces. We evaluate the approach on multiple graph tasks using both lightweight and large models, highlighting the trade-offs between accuracy and computational cost. The results demonstrate consistent performance improvements, showing that structured input context can rival or surpass more complex approaches. Our findings underscore the value of structured context injection as an effective and scalable strategy for graph understanding with LLMs.
- Abstract(参考訳): 大規模言語モデル(LLM)は、伝統的に記号的あるいはアルゴリズム的手法で対処されたグラフ関連タスクを含む、ドメイン間での問題解決において強力な能力を示している。
本研究では,タスク固有の情報を入力に体系的に組み込んだ構造化コンテキスト注入フレームワークを提案する。
LLMの微調整は不要であり、コスト効率と軽量化を実現している。
グラフ推論タスクは、概念的基底表現にマップされない限り、LLMにとって困難なままである。
しかし、細調整や繰り返しのマルチステップクエリによるマッピングは高価で非効率である。
提案手法は,構造化コンテキストを直接入力に注入することで,LLMが暗黙的にタスクを接地された概念空間に整列させることによって,現実的な代替手段を提供する。
我々は,軽量モデルと大規模モデルの両方を用いて,複数のグラフタスクに対するアプローチを評価し,精度と計算コストのトレードオフを強調した。
その結果、一貫性のあるパフォーマンス向上を示し、構造化された入力コンテキストがより複雑なアプローチに匹敵するか、超える可能性があることを示した。
LLMを用いたグラフ理解手法として,構造化コンテキストインジェクションが有用かつスケーラブルであることを示す。
関連論文リスト
- DAGR: Decomposition Augmented Graph Retrieval with LLMs [1.034893617526558]
DAGRは、複雑な質問と、関連するリンクされたサブグラフを抽出するサブクエストにおけるそれらの分解の両方を活用する検索手法である。
結果として得られるGraph-RAGパイプラインは、複雑なマルチホップ質問の処理と、グラフ構造化データに対する効果的な推論に適している。
DAGRを標準マルチホップQAベンチマークで評価し、競合する既存手法に匹敵する性能または優れた性能を発揮することを示す。
論文 参考訳(メタデータ) (2025-06-16T11:44:28Z) - Are Large Language Models In-Context Graph Learners? [31.172657860606297]
大規模言語モデル(LLM)は、幅広いタスクにまたがる顕著なコンテキスト内推論機能を持つ。
しかし、非ユークリッド構造に対する理解の欠如のため、グラフのような構造化データを扱うのに苦労している。
グラフデータの学習は、検索強化生成(RAG)プロセスとして概念化できることを示す。
グラフ学習タスクにおけるLLMの文脈内学習能力を高めるための一連のRAGフレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-19T09:14:19Z) - Learning Task Representations from In-Context Learning [73.72066284711462]
大規模言語モデル(LLM)は、文脈内学習において顕著な習熟性を示している。
ICLプロンプトにおけるタスク情報をアテンションヘッドの関数として符号化するための自動定式化を導入する。
提案手法の有効性は,最後の隠れ状態の分布と最適に実行されたテキスト内学習モデルとの整合性に起因していることを示す。
論文 参考訳(メタデータ) (2025-02-08T00:16:44Z) - Reasoning with Graphs: Structuring Implicit Knowledge to Enhance LLMs Reasoning [73.2950349728376]
大規模言語モデル(LLM)は、幅広いタスクで顕著な成功を収めている。
しかし、彼らは情報片間の関係を理解し、推論する必要があるタスクの推論において、依然として課題に直面している。
この課題は、論理的推論やマルチホップ質問応答など、多段階プロセスに関わるタスクにおいて特に顕著である。
本稿では、まず文脈から明示的なグラフを構築することにより、グラフを用いた推論(RwG)を提案する。
論文 参考訳(メタデータ) (2025-01-14T05:18:20Z) - Interactive and Expressive Code-Augmented Planning with Large Language Models [62.799579304821826]
大きな言語モデル(LLM)は、常識的推論と対話的な意思決定において強力な能力を示す。
近年,制御フローなどのコード・アジャセント技術を用いてLCM出力を構造化し,計画性能を向上させる技術が提案されている。
完全コード表現で動的なLEM計画手法であるREPL-Planを提案する。
論文 参考訳(メタデータ) (2024-11-21T04:23:17Z) - From Anchors to Answers: A Novel Node Tokenizer for Integrating Graph Structure into Large Language Models [27.353083085394008]
グラフ表現のためのアンカーベース位置符号化方式を備えた新しいフレームワークNT-LLMを提案する。
提案手法では,アンカーとして参照ノードを戦略的に選択し,各ノードの位置をアンカーに対してエンコードし,既存の手法の計算負担を伴わずに重要なトポロジ情報を取得する。
NT-LLMは、位置符号化事前訓練のためのランク保存目的を実装することにより、基本構造解析から複雑な推論シナリオに至るまで、多種多様なグラフタスクにまたがる優れた性能を実現する。
論文 参考訳(メタデータ) (2024-10-14T17:21:57Z) - Can Graph Learning Improve Planning in LLM-based Agents? [61.47027387839096]
言語エージェントにおけるタスクプランニングは、大規模言語モデル(LLM)の開発とともに重要な研究トピックとして浮上している。
本稿では,課題計画のためのグラフ学習に基づく手法について検討する。
我々のグラフ学習への関心は、注意のバイアスと自己回帰的損失が、グラフ上の意思決定を効果的にナビゲートするLLMの能力を妨げているという理論的な発見に起因している。
論文 参考訳(メタデータ) (2024-05-29T14:26:24Z) - Learning to Reduce: Optimal Representations of Structured Data in
Prompting Large Language Models [42.16047343029512]
大規模言語モデル(LLM)は汎用AIエージェントとして広く利用されている。
本稿では,入力コンテキストの縮小バージョンを生成するために,言語モデルを微調整するフレームワークであるLearning to Reduceを提案する。
入力コンテキストから関連する証拠を選択する際に,本モデルが同等の精度を達成することを示す。
論文 参考訳(メタデータ) (2024-02-22T00:41:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。