論文の概要: R2-KG: General-Purpose Dual-Agent Framework for Reliable Reasoning on Knowledge Graphs
- arxiv url: http://arxiv.org/abs/2502.12767v4
- Date: Thu, 27 Mar 2025 07:49:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-28 12:50:20.611300
- Title: R2-KG: General-Purpose Dual-Agent Framework for Reliable Reasoning on Knowledge Graphs
- Title(参考訳): R2-KG:知識グラフに基づく信頼性推論のための汎用デュアルエージェントフレームワーク
- Authors: Sumin Jo, Junseong Choi, Jiho Kim, Edward Choi,
- Abstract要約: R2-KGは、推論を2つの役割に分けるプラグイン・アンド・プレイのフレームワークである。
以上の結果から,R2-KGはKGベースの推論のための柔軟性とコスト効率のよい解であることがわかった。
- 参考スコア(独自算出の注目度): 12.521262505385936
- License:
- Abstract: Recent studies have combined Large Language Models (LLMs) with Knowledge Graphs (KGs) to enhance reasoning, improving inference accuracy without additional training while mitigating hallucination. However, existing frameworks are often rigid, struggling to adapt to KG or task changes. They also rely heavily on powerful LLMs for reliable (i.e., trustworthy) reasoning. To address this, We introduce R2-KG, a plug-and-play, dual-agent framework that separates reasoning into two roles: an Operator (a low-capacity LLM) that gathers evidence and a Supervisor (a high-capacity LLM) that makes final judgments. This design is cost-efficient for LLM inference while still maintaining strong reasoning accuracy. Additionally, R2-KG employs an Abstention mechanism, generating answers only when sufficient evidence is collected from KG, which significantly enhances reliability. Experiments across multiple KG-based reasoning tasks show that R2-KG consistently outperforms baselines in both accuracy and reliability, regardless of the inherent capability of LLMs used as the Operator. Further experiments reveal that the single-agent version of R2-KG, equipped with a strict self-consistency strategy, achieves significantly higher-than-baseline reliability while reducing inference cost. However, it also leads to a higher abstention rate in complex KGs. Our findings establish R2-KG as a flexible and cost-effective solution for KG-based reasoning. It reduces reliance on high-capacity LLMs while ensuring trustworthy inference. The code is available at https://github.com/ekrxjwh2009/R2-KG/.
- Abstract(参考訳): 近年の研究では、Large Language Models(LLM)とKG(Knowledge Graphs)を組み合わせて推論を強化し、幻覚を緩和しながら追加トレーニングをすることなく推論精度を向上させている。
しかしながら、既存のフレームワークはしばしば厳格で、KGやタスクの変更に適応するのに苦労しています。
また、信頼性の高い(信頼に値する)推論のために強力なLLMにも大きく依存している。
そこで我々は,R2-KGというプラグアンドプレイのデュアルエージェント・フレームワークを,証拠を収集する演算子(低容量LLM)と最終的な判断を行うスーパーバイザ(高容量LLM)の2つの役割に分けて導入する。
この設計は、強い推論精度を維持しながら、LSM推論のコスト効率が高い。
さらに、R2-KGはAbstention機構を採用し、KGから十分な証拠が収集された場合にのみ回答を生成するため、信頼性が著しく向上する。
複数のKGベースの推論タスクに対する実験により、R2-KGは演算子として使用されるLLMの固有の能力に関わらず、精度と信頼性の両方でベースラインを一貫して上回っていることが示された。
さらに、厳密な自己整合戦略を備えたR2-KGの単エージェントバージョンは、推論コストを低減しつつ、ベースラインよりもはるかに高い信頼性を実現する。
しかし、複雑なKGの吸収率も高い。
以上の結果から,R2-KGはKGベースの推論のための柔軟性とコスト効率のよい解であることがわかった。
信頼性の高い推論を確保しつつ、高容量のLCMへの依存を減らす。
コードはhttps://github.com/ekrxjwh2009/R2-KG/で公開されている。
関連論文リスト
- SymAgent: A Neural-Symbolic Self-Learning Agent Framework for Complex Reasoning over Knowledge Graphs [38.517345561999115]
SymAgentは、知識グラフと大規模言語モデルとの協調的な拡張を実現する革新的なニューラルシンボリックエージェントフレームワークである。
我々はKGを動的環境として概念化し、複雑な推論タスクを多段階の対話プロセスに変換することにより、KGが推論プロセスに深く参加できるようにする。
論文 参考訳(メタデータ) (2025-02-05T15:37:05Z) - LLM2: Let Large Language Models Harness System 2 Reasoning [65.89293674479907]
大規模言語モデル(LLM)は、無数のタスクにまたがって印象的な機能を示してきたが、時には望ましくない出力が得られる。
本稿では LLM とプロセスベースの検証器を組み合わせた新しいフレームワーク LLM2 を紹介する。
LLMs2は妥当な候補を生成するのに責任を持ち、検証者は望ましい出力と望ましくない出力を区別するためにタイムリーなプロセスベースのフィードバックを提供する。
論文 参考訳(メタデータ) (2024-12-29T06:32:36Z) - Decoding on Graphs: Faithful and Sound Reasoning on Knowledge Graphs through Generation of Well-Formed Chains [66.55612528039894]
知識グラフ(KG)は質問応答(QA)のための信頼できる知識ソースとして機能する。
我々は、LLMとKGの深い相乗効果を促進する新しいフレームワークであるDoG(Decoding on Graphs)を提案する。
様々なKGQAタスクに対して異なるバックグラウンドKGを用いた実験により、DoGが優れた、堅牢なパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2024-10-24T04:01:40Z) - Graph-constrained Reasoning: Faithful Reasoning on Knowledge Graphs with Large Language Models [83.28737898989694]
大規模言語モデル(LLM)は知識ギャップと幻覚のために忠実な推論に苦しむ。
グラフ制約推論(GCR)は、KGにおける構造的知識とLLMにおける非構造的推論を橋渡しする新しいフレームワークである。
GCRは最先端のパフォーマンスを達成し、追加のトレーニングをすることなく、見えないKGに対して強力なゼロショット一般化性を示す。
論文 参考訳(メタデータ) (2024-10-16T22:55:17Z) - Can Knowledge Graphs Make Large Language Models More Trustworthy? An Empirical Study Over Open-ended Question Answering [30.12049172634714]
本研究では,Large Language Models(LLM)をオープンエンド環境でより信頼性の高いものにできるかどうかを考察する。
OKGQAは、Knowledge Graphsで強化されたLLMを、オープンエンドの現実世界の質問応答シナリオで評価するために特別に設計されたベンチマークである。
OKGQA-Pは、KGのセマンティクスと構造が意図的に乱れ、汚染された場合のモデル性能を評価するためのベンチマークである。
論文 参考訳(メタデータ) (2024-10-10T16:29:21Z) - Towards Efficient LLM Grounding for Embodied Multi-Agent Collaboration [70.09561665520043]
本稿では,多エージェント協調のための新しいフレームワークを提案する。これは,効率的な自己調整のための強化アドバンテージフィードバック(Reinforced Advantage feedback, ReAd)を導入する。
強化学習における重み付き回帰を多エージェントシステムに拡張して理論的解析を行う。
Over-AIと難解なRoCoBenchの実験は、ReAdが成功率のベースラインを超え、エージェントの相互作用ステップを著しく減少させることを示している。
論文 参考訳(メタデータ) (2024-05-23T08:33:19Z) - Enabling Weak LLMs to Judge Response Reliability via Meta Ranking [38.63721941742435]
我々は、$textitMeta Ranking$ (MR) と呼ばれるクロスクエリベースの新しい手法を提案する。
MRは、ターゲットクエリ-レスポンスペアを複数の参照クエリ-レスポンスペアにペアでランク付けすることで、信頼性を評価する。
MRはモデルカスケーディングとインストラクションチューニングの2つの実用的応用において、強力なLLMの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2024-02-19T13:57:55Z) - KG-Agent: An Efficient Autonomous Agent Framework for Complex Reasoning
over Knowledge Graph [134.8631016845467]
我々は、KG-Agentと呼ばれる自律LLMベースのエージェントフレームワークを提案する。
KG-Agentでは、LLM、多機能ツールボックス、KGベースのエグゼキュータ、知識メモリを統合する。
有効性を保証するため、プログラム言語を利用してKG上のマルチホップ推論プロセスを定式化する。
論文 参考訳(メタデータ) (2024-02-17T02:07:49Z) - Reasoning on Graphs: Faithful and Interpretable Large Language Model
Reasoning [104.92384929827776]
大規模言語モデル(LLM)は複雑なタスクにおいて顕著な推論能力を示している。
彼らは推論中に最新の知識と幻覚を欠いている。
知識グラフ(KG)は、推論のための信頼できる知識源を提供する。
論文 参考訳(メタデータ) (2023-10-02T10:14:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。