論文の概要: Dynamic and Parametric Retrieval-Augmented Generation
- arxiv url: http://arxiv.org/abs/2506.06704v1
- Date: Sat, 07 Jun 2025 07:59:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 16:33:10.442959
- Title: Dynamic and Parametric Retrieval-Augmented Generation
- Title(参考訳): 動的・パラメトリック検索型生成
- Authors: Weihang Su, Qingyao Ai, Jingtao Zhan, Qian Dong, Yiqun Liu,
- Abstract要約: Retrieval-Augmented Generation (RAG) は、大規模言語モデルに外部知識を持たせるための基礎パラダイムとなっている。
このチュートリアルは、RAG(Dynamic RAG)とParametric RAG(Parametric RAG)という、急速に成長し、補完的な2つの研究領域に展開している。
- 参考スコア(独自算出の注目度): 17.311144793201652
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Retrieval-Augmented Generation (RAG) has become a foundational paradigm for equipping large language models (LLMs) with external knowledge, playing a critical role in information retrieval and knowledge-intensive applications. However, conventional RAG systems typically adopt a static retrieve-then-generate pipeline and rely on in-context knowledge injection, which can be suboptimal for complex tasks that require multihop reasoning, adaptive information access, and deeper integration of external knowledge. Motivated by these limitations, the research community has moved beyond static retrieval and in-context knowledge injection. Among the emerging directions, this tutorial delves into two rapidly growing and complementary research areas on RAG: Dynamic RAG and Parametric RAG. Dynamic RAG adaptively determines when and what to retrieve during the LLM's generation process, enabling real-time adaptation to the LLM's evolving information needs. Parametric RAG rethinks how retrieved knowledge should be injected into LLMs, transitioning from input-level to parameter-level knowledge injection for enhanced efficiency and effectiveness. This tutorial offers a comprehensive overview of recent advances in these emerging research areas. It also shares theoretical foundations and practical insights to support and inspire further research in RAG.
- Abstract(参考訳): Retrieval-Augmented Generation (RAG) は、大規模言語モデル(LLM)に外部知識を組み込むための基礎パラダイムとなり、情報検索や知識集約アプリケーションにおいて重要な役割を担っている。
しかし、従来のRAGシステムでは、静的検索生成パイプラインを採用し、コンテキスト内知識注入に依存しており、マルチホップ推論、適応情報アクセス、外部知識のより深い統合を必要とする複雑なタスクに最適である。
これらの制限によって、研究コミュニティは静的検索やコンテキスト内知識注入を超えて移動してきた。
新たな方向性の中で、このチュートリアルは、RAGの動的RAGとパラメトリックRAGという、急速に成長し、補完的な2つの研究領域に展開している。
動的RAGは、LLM生成プロセス中にいつ、何を取得すべきかを適応的に決定し、LLMの進化する情報要求へのリアルタイム適応を可能にする。
パラメトリックRAGは、抽出した知識をLLMに注入する方法を再考し、入力レベルからパラメータレベルへの知識注入に移行し、効率と有効性を向上する。
このチュートリアルは、これらの新興研究分野における最近の進歩を概観するものである。
また、RAGのさらなる研究を支援するための理論的基盤と実践的な洞察を共有している。
関連論文リスト
- Unveiling Knowledge Utilization Mechanisms in LLM-based Retrieval-Augmented Generation [77.10390725623125]
検索強化世代(RAG)は知識範囲の拡大に広く利用されている。
RAGは、オープンドメインの質問応答のような知識集約的なタスクを約束しているので、複雑なタスクやインテリジェントアシスタントへの幅広い応用は、その実用性をさらに進歩させてきた。
本稿では、RAGが内部(パラメトリック)知識と外部(検索)知識を統合する本質的なメカニズムを体系的に検討する。
論文 参考訳(メタデータ) (2025-05-17T13:13:13Z) - RAG-KG-IL: A Multi-Agent Hybrid Framework for Reducing Hallucinations and Enhancing LLM Reasoning through RAG and Incremental Knowledge Graph Learning Integration [4.604003661048267]
RAG-KG-ILは、大規模言語モデルの推論能力を高めるために設計された、新しいマルチエージェントハイブリッドフレームワークである。
Retrieval-Augmented Generation (RAG) と Knowledge Graphs (KG) をインクリメンタルラーニング (IL) アプローチに統合する。
我々は、健康関連クエリを含む実世界のケーススタディを用いて、このフレームワークを評価する。
論文 参考訳(メタデータ) (2025-03-14T11:50:16Z) - A Survey on Knowledge-Oriented Retrieval-Augmented Generation [45.65542434522205]
近年,RAG (Retrieval-Augmented Generation) が注目されている。
RAGは大規模検索システムと生成モデルを組み合わせる。
動的外部知識を用いた生成モデルの強化など,RAGの重要な特徴について論じる。
論文 参考訳(メタデータ) (2025-03-11T01:59:35Z) - DeepNote: Note-Centric Deep Retrieval-Augmented Generation [72.70046559930555]
Retrieval-Augmented Generation (RAG)は質問応答のための大規模言語モデル(LLM)における事実誤りと幻覚を緩和する
我々は、ノート中心の適応検索により、知識ソースの奥深くで堅牢な探索を実現する適応RAGフレームワークであるDeepNoteを開発した。
論文 参考訳(メタデータ) (2024-10-11T14:03:29Z) - A Comprehensive Survey of Retrieval-Augmented Generation (RAG): Evolution, Current Landscape and Future Directions [0.0]
RAGは、検索機構と生成言語モデルを組み合わせることで、出力の精度を高める。
近年の研究では, 検索効率向上のための新しい手法が注目されている。
RAGモデルの堅牢性向上に焦点をあてた今後の研究方向性が提案されている。
論文 参考訳(メタデータ) (2024-10-03T22:29:47Z) - A Survey on RAG Meeting LLMs: Towards Retrieval-Augmented Large Language Models [71.25225058845324]
大規模言語モデル(LLM)は、言語理解と生成において革命的な能力を示している。
Retrieval-Augmented Generation (RAG)は、信頼性と最新の外部知識を提供する。
RA-LLMは、モデルの内部知識に頼るのではなく、外部および権威的な知識ベースを活用するために登場した。
論文 参考訳(メタデータ) (2024-05-10T02:48:45Z) - REAR: A Relevance-Aware Retrieval-Augmented Framework for Open-Domain Question Answering [115.72130322143275]
REAR(Relevance-Aware Retrieval-augmented approach for open-domain Question answering, QA)
我々は,特殊な設計のアセスメントモジュールを組み込むことで,LLMベースのRAGシステムのための新しいアーキテクチャを開発する。
オープンドメインの4つのQAタスクの実験では、REARは以前の競争力のあるRAGアプローチよりも大幅に優れていた。
論文 参考訳(メタデータ) (2024-02-27T13:22:51Z) - Retrieval-Augmented Generation for Large Language Models: A Survey [17.82361213043507]
大きな言語モデル(LLM)には印象的な能力があるが、幻覚のような課題に直面している。
Retrieval-Augmented Generation (RAG) は,外部データベースからの知識を取り入れた,有望なソリューションとして登場した。
論文 参考訳(メタデータ) (2023-12-18T07:47:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。