論文の概要: Retrieval-Augmented Generation for Large Language Models: A Survey
- arxiv url: http://arxiv.org/abs/2312.10997v1
- Date: Mon, 18 Dec 2023 07:47:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-20 20:52:18.528911
- Title: Retrieval-Augmented Generation for Large Language Models: A Survey
- Title(参考訳): 大規模言語モデルのための検索型生成:調査
- Authors: Yunfan Gao, Yun Xiong, Xinyu Gao, Kangxiang Jia, Jinliu Pan, Yuxi Bi,
Yi Dai, Jiawei Sun and Haofen Wang
- Abstract要約: Retrieval-Augmented Generation (RAG)は、大きな言語モデルで質問に答える前に、外部知識ベースから関連する情報を検索することを指す。
情報源を引用することで、ユーザーは回答の正確さを確認し、モデルの出力に対する信頼を高めることができる。
本稿では,大規模言語モデルの時代におけるRAGの開発パラダイムについて概説する。
- 参考スコア(独自算出の注目度): 12.634421326174095
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) demonstrate powerful capabilities, but they
still face challenges in practical applications, such as hallucinations, slow
knowledge updates, and lack of transparency in answers. Retrieval-Augmented
Generation (RAG) refers to the retrieval of relevant information from external
knowledge bases before answering questions with LLMs. RAG has been demonstrated
to significantly enhance answer accuracy, reduce model hallucination,
particularly for knowledge-intensive tasks. By citing sources, users can verify
the accuracy of answers and increase trust in model outputs. It also
facilitates knowledge updates and the introduction of domain-specific
knowledge. RAG effectively combines the parameterized knowledge of LLMs with
non-parameterized external knowledge bases, making it one of the most important
methods for implementing large language models. This paper outlines the
development paradigms of RAG in the era of LLMs, summarizing three paradigms:
Naive RAG, Advanced RAG, and Modular RAG. It then provides a summary and
organization of the three main components of RAG: retriever, generator, and
augmentation methods, along with key technologies in each component.
Furthermore, it discusses how to evaluate the effectiveness of RAG models,
introducing two evaluation methods for RAG, emphasizing key metrics and
abilities for evaluation, and presenting the latest automatic evaluation
framework. Finally, potential future research directions are introduced from
three aspects: vertical optimization, horizontal scalability, and the technical
stack and ecosystem of RAG.
- Abstract(参考訳): 大きな言語モデル(LLM)は強力な能力を示しているが、幻覚、知識更新の遅さ、回答の透明性の欠如など、実践的なアプリケーションでは依然として課題に直面している。
Retrieval-Augmented Generation (RAG)は、LLMで質問に答える前に、外部知識ベースから関連する情報を検索することを指す。
RAGは、特に知識集約的なタスクにおいて、解答精度を大幅に向上し、モデル幻覚を減らすことが示されている。
情報源を引用することで、ユーザーは回答の正確さを確認し、モデルの出力に対する信頼を高めることができる。
また、知識の更新やドメイン固有の知識の導入も促進します。
RAGは、LLMのパラメータ化された知識と非パラメータ化された外部知識ベースを効果的に組み合わせ、大規模な言語モデルを実装する上で最も重要な方法の1つである。
本稿では,LLM時代のRAGの発展パラダイムを概説し,Naive RAG,Advanced RAG,Modular RAGの3つのパラダイムを要約する。
次に、RAGの3つの主要コンポーネントの要約と構成を提供する:レトリバー、ジェネレータ、拡張メソッド、そして各コンポーネントの主要な技術である。
さらに、RAGモデルの有効性の評価方法、RAGの2つの評価手法の導入、主要な指標と評価能力の強調、最新の自動評価フレームワークの提示について論じる。
最後に、垂直最適化、水平スケーラビリティ、RAGの技術スタックとエコシステムの3つの側面から将来の研究方向性が紹介される。
関連論文リスト
- Retriever-and-Memory: Towards Adaptive Note-Enhanced Retrieval-Augmented Generation [72.70046559930555]
本稿では,複雑なQAタスクに対する適応ノート拡張RAG(Adaptive Note-Enhanced RAG)と呼ばれる汎用RAGアプローチを提案する。
具体的には、Adaptive-Noteは、知識の成長に関する包括的な視点を導入し、ノート形式で新しい情報を反復的に収集する。
さらに,適切な知識探索を促進するために,適応的な音符ベースの停止探索戦略を用いて,「何を検索し,いつ停止するか」を判断する。
論文 参考訳(メタデータ) (2024-10-11T14:03:29Z) - StructRAG: Boosting Knowledge Intensive Reasoning of LLMs via Inference-time Hybrid Information Structurization [94.31508613367296]
Retrieval-augmented Generation(RAG)は、大規模言語モデル(LLM)を効果的に強化する鍵となる手段である。
本稿では,手前のタスクに対して最適な構造型を識別し,元の文書をこの構造化形式に再構成し,その結果に基づいて回答を推測するStructRAGを提案する。
実験の結果、StructRAGは最先端のパフォーマンスを実現し、特に挑戦的なシナリオに優れていた。
論文 参考訳(メタデータ) (2024-10-11T13:52:44Z) - A Comprehensive Survey of Retrieval-Augmented Generation (RAG): Evolution, Current Landscape and Future Directions [0.0]
RAGは、検索機構と生成言語モデルを組み合わせることで、出力の精度を高める。
近年の研究では, 検索効率向上のための新しい手法が注目されている。
RAGモデルの堅牢性向上に焦点をあてた今後の研究方向性が提案されている。
論文 参考訳(メタデータ) (2024-10-03T22:29:47Z) - Contextual Compression in Retrieval-Augmented Generation for Large Language Models: A Survey [0.0]
大きな言語モデル(LLM)は目覚ましい能力を示すが、幻覚、時代遅れの知識、不透明さ、説明不能な推論といった制限に悩まされている。
Retrieval-Augmented Generation (RAG)は、外部データベースを活用して生成されたコンテンツの一貫性と一貫性を改善することで、実行可能なソリューションであることが証明されている。
論文 参考訳(メタデータ) (2024-09-20T10:36:49Z) - Trustworthiness in Retrieval-Augmented Generation Systems: A Survey [59.26328612791924]
Retrieval-Augmented Generation (RAG)は、大規模言語モデル(LLM)の開発において、急速に重要なパラダイムへと成長してきた。
本稿では,RAGシステムの信頼性を,事実性,堅牢性,公正性,透明性,説明責任,プライバシの6つの面で評価する統一的な枠組みを提案する。
論文 参考訳(メタデータ) (2024-09-16T09:06:44Z) - A Survey on RAG Meeting LLMs: Towards Retrieval-Augmented Large Language Models [71.25225058845324]
大規模言語モデル(LLM)は、言語理解と生成において革命的な能力を示している。
Retrieval-Augmented Generation (RAG)は、信頼性と最新の外部知識を提供する。
RA-LLMは、モデルの内部知識に頼るのではなく、外部および権威的な知識ベースを活用するために登場した。
論文 参考訳(メタデータ) (2024-05-10T02:48:45Z) - A Survey on Retrieval-Augmented Text Generation for Large Language Models [1.4579344926652844]
Retrieval-Augmented Generation (RAG)は、検索手法とディープラーニングの進歩を融合する。
本稿では,RAGパラダイムを検索前,検索後,検索後,生成の4つのカテゴリに分類する。
RAGの進化を概説し、重要な研究の分析を通して分野の進歩について論じている。
論文 参考訳(メタデータ) (2024-04-17T01:27:42Z) - Retrieval-Augmented Generation for AI-Generated Content: A Survey [38.50754568320154]
このような課題に対処するためのパラダイムとして,レトリーバル拡張生成(RAG)が登場している。
RAGは情報検索プロセスを導入し、利用可能なデータストアから関連オブジェクトを検索することで生成プロセスを強化する。
本稿では,RAG手法をAIGCシナリオに統合する既存の取り組みを概観的にレビューする。
論文 参考訳(メタデータ) (2024-02-29T18:59:01Z) - REAR: A Relevance-Aware Retrieval-Augmented Framework for Open-Domain
Question Answering [122.62012375722124]
既存の手法では,大規模言語モデル (LLM) は検索した文書の関連性を正確に評価することはできない。
Relevance-Aware Retrieval-augmented approach for open- domain question answering (QA)を提案する。
論文 参考訳(メタデータ) (2024-02-27T13:22:51Z) - CRUD-RAG: A Comprehensive Chinese Benchmark for Retrieval-Augmented Generation of Large Language Models [49.16989035566899]
Retrieval-Augmented Generation (RAG)は、大規模言語モデル(LLM)の能力を高める技術である。
本稿では,大規模かつ包括的なベンチマークを構築し,様々なRAGアプリケーションシナリオにおけるRAGシステムのすべてのコンポーネントを評価する。
論文 参考訳(メタデータ) (2024-01-30T14:25:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。