論文の概要: Retrieval-Augmented Generation for Large Language Models: A Survey
- arxiv url: http://arxiv.org/abs/2312.10997v2
- Date: Fri, 29 Dec 2023 18:25:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-02 21:01:58.408161
- Title: Retrieval-Augmented Generation for Large Language Models: A Survey
- Title(参考訳): 大規模言語モデルのための検索型生成:調査
- Authors: Yunfan Gao, Yun Xiong, Xinyu Gao, Kangxiang Jia, Jinliu Pan, Yuxi Bi,
Yi Dai, Jiawei Sun, Qianyu Guo, Meng Wang and Haofen Wang
- Abstract要約: 大きな言語モデル(LLM)は重要な能力を示すが、幻覚、時代遅れの知識、不透明で追跡不能な推論プロセスといった課題に直面している。
Augmented Generation (RAG) は、外部データベースからのリアルタイムデータを LLM 応答に組み込むことによって、これらの問題に対する有望な解決策として登場した。
本稿では,RAGの進化を詳細に分析し,Naive RAG,Advanced RAG,Modular RAGの3つのパラダイムに着目した。
- 参考スコア(独自算出の注目度): 19.139461618363605
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) demonstrate significant capabilities but face
challenges such as hallucination, outdated knowledge, and non-transparent,
untraceable reasoning processes. Augmented Generation (RAG) has emerged as a
promising solution to these issues by incorporating real-time data from
external databases into LLM responses. This enhances the accuracy and
credibility of the models, particularly for knowledge-intensive tasks, and
allows for continuous knowledge updates and integration of domain-specific
information. RAG synergistically merges LLMs' intrinsic knowledge with the
vast, dynamic repositories of external databases. This survey paper provides an
in-depth analysis of the evolution of RAG, focusing on three key paradigms:
Naive RAG, Advanced RAG, and Modular RAG. It methodically examines the three
fundamental components of RAG systems: the retriever, the generator, and the
augmentation methods, underscoring the cutting-edge technologies within each
componenet. Additionally, the paper introduces novel metrics and capabilities
for evaluating RAG models, as well as the most recent evaluation framework.
Finally, the paper outlines future research directions from three perspectives:
future challenges,modality extension,and the development of the RAG technical
stack and ecosystem
- Abstract(参考訳): 大きな言語モデル(LLM)は重要な能力を示すが、幻覚、時代遅れの知識、不透明で追跡不能な推論プロセスといった課題に直面している。
Augmented Generation (RAG) は、外部データベースからのリアルタイムデータを LLM 応答に組み込むことによって、これらの問題に対する有望な解決策として登場した。
これによってモデル、特に知識集約型タスクの正確性と信頼性が向上し、継続的な知識更新とドメイン固有情報の統合が可能になる。
RAG は LLM の本質的な知識と外部データベースの巨大な動的リポジトリを相乗的に統合する。
本稿では,RAGの進化を詳細に分析し,Naive RAG,Advanced RAG,Modular RAGの3つのパラダイムに着目した。
RAGシステムの3つの基本コンポーネント(レトリバー、ジェネレータ、拡張方法)を方法論的に検討し、各コンポネネット内の最先端技術について検討する。
さらに、RAGモデルを評価するための新しいメトリクスと機能や、最新の評価フレームワークについても紹介する。
最後に,今後の課題,モダリティの拡張,RAG技術スタックとエコシステムの開発という3つの視点から,今後の研究方向性を概説する。
関連論文リスト
- From Matching to Generation: A Survey on Generative Information Retrieval [21.56093567336119]
生成情報検索(GenIR)は新たなパラダイムとして登場し,近年注目を集めている。
本稿では,GenIRの最新研究動向を体系的にレビューすることを目的とする。
論文 参考訳(メタデータ) (2024-04-23T09:05:37Z) - A Survey on Retrieval-Augmented Text Generation for Large Language Models [1.4579344926652844]
Retrieval-Augmented Generation (RAG)は、検索手法とディープラーニングの進歩を融合する。
本稿では,RAGパラダイムを検索前,検索後,検索後,生成の4つのカテゴリに分類する。
RAGの進化を概説し、重要な研究の分析を通して分野の進歩について論じている。
論文 参考訳(メタデータ) (2024-04-17T01:27:42Z) - Retrieval-Augmented Generation for AI-Generated Content: A Survey [38.50754568320154]
このような課題に対処するためのパラダイムとして,レトリーバル拡張生成(RAG)が登場している。
RAGは情報検索プロセスを導入し、利用可能なデータストアから関連オブジェクトを検索することで生成プロセスを強化する。
本稿では,RAG手法をAIGCシナリオに統合する既存の取り組みを概観的にレビューする。
論文 参考訳(メタデータ) (2024-02-29T18:59:01Z) - REAR: A Relevance-Aware Retrieval-Augmented Framework for Open-Domain
Question Answering [122.62012375722124]
既存の手法では,大規模言語モデル (LLM) は検索した文書の関連性を正確に評価することはできない。
Relevance-Aware Retrieval-augmented approach for open- domain question answering (QA)を提案する。
論文 参考訳(メタデータ) (2024-02-27T13:22:51Z) - ActiveRAG: Revealing the Treasures of Knowledge via Active Learning [48.27288876691973]
Retrieval Augmented Generation (RAG) は、Large Language Models (LLM) の新しいパラダイムを導入した。
我々は、受動的知識獲得から能動的学習機構に移行する革新的なRAGフレームワークであるActiveRAGを提案する。
実験の結果,ActiveRAGは従来のRAGモデルを超え,質問応答データセットの5%の改善を実現していることがわかった。
論文 参考訳(メタデータ) (2024-02-21T06:04:53Z) - CRUD-RAG: A Comprehensive Chinese Benchmark for Retrieval-Augmented
Generation of Large Language Models [55.47070014913373]
Retrieval-Augmented Generation (RAG)は、大規模言語モデル(LLM)の能力を高める技術である。
本稿では,大規模かつ包括的なベンチマークを構築し,様々なRAGアプリケーションシナリオにおけるRAGシステムのすべてのコンポーネントを評価する。
論文 参考訳(メタデータ) (2024-01-30T14:25:32Z) - Self-RAG: Learning to Retrieve, Generate, and Critique through
Self-Reflection [74.51523859064802]
我々は、自己回帰検索拡張生成(Self-RAG)と呼ばれる新しいフレームワークを導入する。
自己RAGは、検索と自己回帰によってLMの品質と事実性を高める。
様々なタスクセットにおいて、最先端のLCMや検索強化モデルよりも大幅に優れています。
論文 参考訳(メタデータ) (2023-10-17T18:18:32Z) - RAGAS: Automated Evaluation of Retrieval Augmented Generation [25.402461447140823]
RAGAはRetrieval Augmented Generationパイプラインを評価するためのフレームワークである。
RAGシステムは、検索とLLMベースの生成モジュールで構成される。
論文 参考訳(メタデータ) (2023-09-26T19:23:54Z) - Large Language Models for Information Retrieval: A Survey [57.7992728506871]
情報検索は、項ベースの手法から高度なニューラルモデルとの統合へと進化してきた。
近年の研究では、大規模言語モデル(LLM)を活用してIRシステムの改善が試みられている。
LLMとIRシステムの合流点を探索し、クエリリライト、リトリバー、リランカー、リーダーといった重要な側面を含む。
論文 参考訳(メタデータ) (2023-08-14T12:47:22Z) - A Comprehensive Survey of AI-Generated Content (AIGC): A History of
Generative AI from GAN to ChatGPT [63.58711128819828]
ChatGPTおよびその他の生成AI(GAI)技術は、人工知能生成コンテンツ(AIGC)のカテゴリに属している。
AIGCの目標は、コンテンツ作成プロセスをより効率的かつアクセスしやすくし、高品質なコンテンツをより高速に生産できるようにすることである。
論文 参考訳(メタデータ) (2023-03-07T20:36:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。