論文の概要: Agentic RAG with Knowledge Graphs for Complex Multi-Hop Reasoning in Real-World Applications
- arxiv url: http://arxiv.org/abs/2507.16507v1
- Date: Tue, 22 Jul 2025 12:03:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-23 21:34:14.100634
- Title: Agentic RAG with Knowledge Graphs for Complex Multi-Hop Reasoning in Real-World Applications
- Title(参考訳): 実世界の複雑なマルチホップ推論のための知識グラフ付きエージェントRAG
- Authors: Jean Lelong, Adnane Errazine, Annabelle Blangero,
- Abstract要約: INRAExplorerは、INRAE(フランス国立農業・食品・環境研究所)の科学的データを探索するエージェントRAGシステムである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Conventional Retrieval-Augmented Generation (RAG) systems enhance Large Language Models (LLMs) but often fall short on complex queries, delivering limited, extractive answers and struggling with multiple targeted retrievals or navigating intricate entity relationships. This is a critical gap in knowledge-intensive domains. We introduce INRAExplorer, an agentic RAG system for exploring the scientific data of INRAE (France's National Research Institute for Agriculture, Food and Environment). INRAExplorer employs an LLM-based agent with a multi-tool architecture to dynamically engage a rich knowledge base, through a comprehensive knowledge graph derived from open access INRAE publications. This design empowers INRAExplorer to conduct iterative, targeted queries, retrieve exhaustive datasets (e.g., all publications by an author), perform multi-hop reasoning, and deliver structured, comprehensive answers. INRAExplorer serves as a concrete illustration of enhancing knowledge interaction in specialized fields.
- Abstract(参考訳): 従来の検索-拡張生成(RAG)システムはLarge Language Models(LLM)を強化するが、複雑なクエリに乏しく、限定的で抽出された回答を提供し、複数のターゲットとなる検索や複雑なエンティティ関係のナビゲートに苦労する。
これは知識集約ドメインにおける重要なギャップである。
本稿では,INRAE(フランス国立農業・食品・環境研究所)の科学的データを探索するエージェントRAGシステムであるINRAExplorerを紹介する。
INRAExplorerは、オープンアクセスINRAE出版物から派生した包括的な知識グラフを通じて、リッチな知識ベースを動的に扱うために、マルチツールアーキテクチャを備えたLLMベースのエージェントを使用している。
この設計により、INRAExplorerは反復的なターゲットクエリを実行し、包括的なデータセット(例えば、著者によるすべての出版物)を取得し、マルチホップ推論を実行し、構造化された包括的な回答を提供することができる。
INRAExplorerは、専門分野における知識相互作用の強化の具体例として機能する。
関連論文リスト
- DeepSieve: Information Sieving via LLM-as-a-Knowledge-Router [57.28685457991806]
DeepSieveはエージェントRAGフレームワークで、LLM-as-a-knowledge-routerを介して情報を収集する。
我々の設計はモジュール性、透明性、適応性を重視しており、エージェントシステム設計の最近の進歩を活用している。
論文 参考訳(メタデータ) (2025-07-29T17:55:23Z) - Towards Agentic RAG with Deep Reasoning: A Survey of RAG-Reasoning Systems in LLMs [69.10441885629787]
Retrieval-Augmented Generation (RAG) は、外部知識を注入することによって、Large Language Models (LLM) の事実性を高める。
逆に、純粋に推論指向のアプローチは、しばしば幻覚的あるいは誤った事実を必要とする。
この調査は両鎖を統一的推論-検索の観点から合成する。
論文 参考訳(メタデータ) (2025-07-13T03:29:41Z) - SpiritRAG: A Q&A System for Religion and Spirituality in the United Nations Archive [4.575515160275914]
Retrieval-Augmented Generation(RAG)に基づく対話型Q&AシステムであるSpiritRAGを提案する。
SpiritRAGは、保健・教育分野におけるR/Sに関する7500件の国連(UN)決議文書を使って構築され、研究者や政策立案者が複雑な文脈に敏感なデータベース検索を行うことを可能にする。
100の質問を手作業で作成したドメインエキスパートによるパイロットテストと評価は、SpiritRAGの実用的価値と有用性を示している。
論文 参考訳(メタデータ) (2025-07-06T13:54:54Z) - WebThinker: Empowering Large Reasoning Models with Deep Research Capability [60.81964498221952]
WebThinkerは、大規模な推論モデルに、Webを自律的に検索し、Webページをナビゲートし、推論プロセス中に研究レポートをドラフトする権限を与えるディープリサーチエージェントである。
また、textbf Autonomous Think-Search-and-Draft戦略を採用しており、モデルがシームレスに推論、情報収集、レポート作成をリアルタイムで行うことができる。
我々のアプローチは複雑なシナリオにおけるLEMの信頼性と適用性を高め、より有能で多目的な深層研究システムへの道を開く。
論文 参考訳(メタデータ) (2025-04-30T16:25:25Z) - HM-RAG: Hierarchical Multi-Agent Multimodal Retrieval Augmented Generation [11.53083922927901]
HM-RAGは階層型マルチエージェントマルチモーダルRAGフレームワークである。
構造化、非構造化、グラフベースのデータ間での動的知識合成のための協調知能の先駆者である。
論文 参考訳(メタデータ) (2025-04-13T06:55:33Z) - PIKE-RAG: sPecIalized KnowledgE and Rationale Augmented Generation [16.081923602156337]
sPecIalized KnowledgEとRationale Augmentation Generation(PIKE-RAG)を紹介する。
専門知識を抽出し,理解し,適用することに注力するとともに,LCMを正確な応答に向けて漸進的に操るコヒーレントな合理性を構築した。
この戦略的なアプローチは、産業アプリケーションの進化する要求を満たすために調整されたRAGシステムの段階的開発と強化のためのロードマップを提供する。
論文 参考訳(メタデータ) (2025-01-20T15:39:39Z) - Multi-Source Knowledge Pruning for Retrieval-Augmented Generation: A Benchmark and Empirical Study [46.55831783809377]
大規模言語モデル(LLM)の幻覚を緩和するための効果的なアプローチとして,検索拡張世代(RAG)がますます認識されている。
PruningRAGはマルチグラニュラリティ・プルーニング・ストラテジーを用いて,関連コンテキストをより効果的に統合し,誤った情報に対するネガティブな影響を軽減するためのプラグアンドプレイRAGフレームワークである。
論文 参考訳(メタデータ) (2024-09-03T03:31:37Z) - BioRAG: A RAG-LLM Framework for Biological Question Reasoning [14.05505988436551]
本稿では,Large Language Models (LLMs) フレームワークを組み込んだ新規な検索拡張生成(RAG)であるBioRAGを紹介する。
このアプローチは、基本的な知識として2200万の科学論文を解析、索引付け、セグメント化することから始まり、続いて、このドメインに適した特別な埋め込みモデルをトレーニングします。
最新の情報を必要とするクエリに対して、BioRAGは質問を分解し、検索エンジンに組み込まれた反復的な検索プロセスを用いてステップバイステップの推論を行う。
論文 参考訳(メタデータ) (2024-08-02T08:37:03Z) - A Survey on RAG Meeting LLMs: Towards Retrieval-Augmented Large Language Models [71.25225058845324]
大規模言語モデル(LLM)は、言語理解と生成において革命的な能力を示している。
Retrieval-Augmented Generation (RAG)は、信頼性と最新の外部知識を提供する。
RA-LLMは、モデルの内部知識に頼るのではなく、外部および権威的な知識ベースを活用するために登場した。
論文 参考訳(メタデータ) (2024-05-10T02:48:45Z) - Synergistic Interplay between Search and Large Language Models for
Information Retrieval [141.18083677333848]
InteRにより、RMはLLM生成した知識コレクションを使用してクエリの知識を拡張することができる。
InteRは、最先端手法と比較して総合的に優れたゼロショット検索性能を実現する。
論文 参考訳(メタデータ) (2023-05-12T11:58:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。