論文の概要: CLAUSE: Agentic Neuro-Symbolic Knowledge Graph Reasoning via Dynamic Learnable Context Engineering
- arxiv url: http://arxiv.org/abs/2509.21035v1
- Date: Thu, 25 Sep 2025 11:43:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-26 20:58:12.873337
- Title: CLAUSE: Agentic Neuro-Symbolic Knowledge Graph Reasoning via Dynamic Learnable Context Engineering
- Title(参考訳): CLAUSE:動的学習コンテキスト工学によるエージェントニューロシンボリック知識グラフ推論
- Authors: Yang Zhao, Chengxiao Dai, Wei Zhuo, Yue Xiu, Dusit Niyato,
- Abstract要約: CLAUSEは,文脈構築を知識グラフ上の逐次決定プロセスとして扱うエージェント型3エージェントニューロシンボリックフレームワークである。
CLAUSEは提案したLagrangian-Constrained Multi-Agent Proximal Policy Optimization (LC-MAPPO)アルゴリズムを用いて、サブグラフアーキテクト、パスナビゲータ、コンテキストキュレーターの3つのエージェントを調整する。
HotpotQA、MetaQA、FactKG全体では、CLAUSEはより高いEM@1を得られると同時に、トークン予算が等しく低い場合のサブグラフの成長とエンドツーエンドのレイテンシを低減する。
- 参考スコア(独自算出の注目度): 47.77119771502664
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowledge graphs provide structured context for multi-hop question answering, but deployed systems must balance answer accuracy with strict latency and cost targets while preserving provenance. Static k-hop expansions and "think-longer" prompting often over-retrieve, inflate context, and yield unpredictable runtime. We introduce CLAUSE, an agentic three-agent neuro-symbolic framework that treats context construction as a sequential decision process over knowledge graphs, deciding what to expand, which paths to follow or backtrack, what evidence to keep, and when to stop. Latency (interaction steps) and prompt cost (selected tokens) are exposed as user-specified budgets or prices, allowing per-query adaptation to trade-offs among accuracy, latency, and cost without retraining. CLAUSE employs the proposed Lagrangian-Constrained Multi-Agent Proximal Policy Optimization (LC-MAPPO) algorithm to coordinate three agents: Subgraph Architect, Path Navigator, and Context Curator, so that subgraph construction, reasoning-path discovery, and evidence selection are jointly optimized under per-query resource budgets on edge edits, interaction steps, and selected tokens. Across HotpotQA, MetaQA, and FactKG, CLAUSE yields higher EM@1 while reducing subgraph growth and end-to-end latency at equal or lower token budgets. On MetaQA-2-hop, relative to the strongest RAG baseline (GraphRAG), CLAUSE achieves +39.3 EM@1 with 18.6% lower latency and 40.9% lower edge growth. The resulting contexts are compact, provenance-preserving, and deliver predictable performance under deployment constraints.
- Abstract(参考訳): 知識グラフは、マルチホップ質問応答のための構造化されたコンテキストを提供するが、デプロイされたシステムは、解答精度と厳密なレイテンシとコスト目標とのバランスをとる必要がある。
静的kホップ展開と「思考が長くなる」ことで、しばしば過剰に検索され、文脈が変化し、予測不可能なランタイムが得られる。
CLAUSEは、コンテキスト構築を知識グラフ上のシーケンシャルな決定プロセスとして扱い、何を拡張するか、どのパスを辿るか、どのエビデンスを保つか、いつ停止するかを判断するエージェント的な3段階の神経象徴的フレームワークである。
レイテンシ(インタラクションステップ)とプロンプトコスト(選択されたトークン)は、ユーザ指定の予算や価格として公開され、トレーニングすることなく、正確性、レイテンシ、コスト間のトレードオフへのクエリごとの適応を可能にする。
CLAUSEは提案したLagrangian-Constrained Multi-Agent Proximal Policy Optimization (LC-MAPPO)アルゴリズムを用いて、3つのエージェント(Subgraph Architect, Path Navigator, Context Curator)を調整する。
HotpotQA、MetaQA、FactKG全体では、CLAUSEはより高いEM@1を得られると同時に、トークン予算が等しく低い場合のサブグラフの成長とエンドツーエンドのレイテンシを低減する。
MetaQA-2ホップでは、最強のRAGベースライン(GraphRAG)と比較して、CLAUSEは+39.3 EM@1で18.6%のレイテンシと40.9%のエッジ成長を実現している。
結果として生じるコンテキストは、コンパクトで、前兆保存であり、デプロイメントの制約の下で予測可能なパフォーマンスを提供する。
関連論文リスト
- Enrich-on-Graph: Query-Graph Alignment for Complex Reasoning with LLM Enriching [61.824094419641575]
大言語モデル(LLM)は知識グラフ質問応答(KGQA)のような知識集約的なシナリオにおける幻覚と事実的誤りに苦しむ
これは、構造化知識グラフ(KG)と非構造化クエリのセマンティックギャップによるもので、その焦点や構造に固有の違いが原因である。
既存の手法は通常、バニラKGの資源集約的で非スケーリング可能な推論を用いるが、このギャップを見落としている。
我々は、LLMの事前知識を活用してKGを充実させる柔軟なフレームワークEnrich-on-Graph(EoG)を提案し、グラフとクエリ間のセマンティックギャップを埋める。
論文 参考訳(メタデータ) (2025-09-25T06:48:52Z) - GRIL: Knowledge Graph Retrieval-Integrated Learning with Large Language Models [59.72897499248909]
本稿では,Large Language Models (LLM) を用いたエンドツーエンド学習のための新しいグラフ検索手法を提案する。
抽出したサブグラフでは, 構造的知識と意味的特徴をそれぞれ軟式トークンと言語化グラフで符号化し, LLMに注入する。
提案手法は、複雑な推論タスクに対する結合グラフ-LLM最適化の強みを検証し、最先端の性能を一貫して達成する。
論文 参考訳(メタデータ) (2025-09-20T02:38:00Z) - AGENTICT$^2$S:Robust Text-to-SPARQL via Agentic Collaborative Reasoning over Heterogeneous Knowledge Graphs for the Circular Economy [42.73610751710192]
AgenticT$2$Sは、知識グラフを専門エージェントが管理するサブタスクに分解するフレームワークである。
2段階検証器は、構造的に無効で意味的に不特定なクエリを検出する。
実世界の循環経済の実験では、AgenticT$2$Sが実行精度を17.3%向上することを示した。
論文 参考訳(メタデータ) (2025-08-03T15:58:54Z) - Clue-RAG: Towards Accurate and Cost-Efficient Graph-based RAG via Multi-Partite Graph and Query-Driven Iterative Retrieval [15.599544326509436]
Retrieval-Augmented Generation (RAG) は、しばしばグラフ構造化データから外部情報を統合することで制限に対処する。
本稿では,マルチパーティグラフインデックスとクエリ駆動反復検索戦略を導入した新しいアプローチであるClue-RAGを提案する。
3つのQAベンチマークの実験により、Clue-RAGは最先端のベースラインを著しく上回っている。
論文 参考訳(メタデータ) (2025-07-11T09:36:45Z) - Learning Efficient and Generalizable Graph Retriever for Knowledge-Graph Question Answering [75.12322966980003]
大規模言語モデル(LLM)は、様々な領域にわたって強い帰納的推論能力を示している。
既存のRAGパイプラインのほとんどは非構造化テキストに依存しており、解釈可能性と構造化推論を制限する。
近年,知識グラフ解答のための知識グラフとLLMの統合について検討している。
KGQAにおける効率的なグラフ検索のための新しいフレームワークであるRAPLを提案する。
論文 参考訳(メタデータ) (2025-06-11T12:03:52Z) - Beyond 'Aha!': Toward Systematic Meta-Abilities Alignment in Large Reasoning Models [86.88657425848547]
大型推論モデル(LRMs)はすでに長い連鎖推論のための潜在能力を持っている。
我々は、自動生成の自己検証タスクを使用して、モデルに推論、帰納、誘拐の3つのメタ能力を持たせることを明確にした。
我々の3つのステージ・パイプラインの個別アライメント、パラメータ空間のマージ、ドメイン固有の強化学習は、命令調整ベースラインと比較して10%以上のパフォーマンス向上を実現します。
論文 参考訳(メタデータ) (2025-05-15T17:58:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。