論文の概要: A Systematic Literature Review of Retrieval-Augmented Generation: Techniques, Metrics, and Challenges
- arxiv url: http://arxiv.org/abs/2508.06401v2
- Date: Fri, 15 Aug 2025 12:42:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-18 12:50:03.052103
- Title: A Systematic Literature Review of Retrieval-Augmented Generation: Techniques, Metrics, and Challenges
- Title(参考訳): 検索・拡張世代に関する体系的文献レビュー:技術・メトリクス・課題
- Authors: Andrew Brown, Muhammad Roman, Barry Devereux,
- Abstract要約: このRAG(Research-augmented Generation)に関する研究文献の体系的なレビューは、2020年から2025年にかけて発行された最も高度に引用された研究の焦点を絞った分析である。
- 参考スコア(独自算出の注目度): 1.7724965898556184
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This systematic review of the research literature on retrieval-augmented generation (RAG) provides a focused analysis of the most highly cited studies published between 2020 and May 2025. A total of 128 articles met our inclusion criteria. The records were retrieved from ACM Digital Library, IEEE Xplore, Scopus, ScienceDirect, and the Digital Bibliography and Library Project (DBLP). RAG couples a neural retriever with a generative language model, grounding output in up-to-date, non-parametric memory while retaining the semantic generalisation stored in model weights. Guided by the PRISMA 2020 framework, we (i) specify explicit inclusion and exclusion criteria based on citation count and research questions, (ii) catalogue datasets, architectures, and evaluation practices, and (iii) synthesise empirical evidence on the effectiveness and limitations of RAG. To mitigate citation-lag bias, we applied a lower citation-count threshold to papers published in 2025 so that emerging breakthroughs with naturally fewer citations were still captured. This review clarifies the current research landscape, highlights methodological gaps, and charts priority directions for future research.
- Abstract(参考訳): 検索増強世代(RAG)に関する研究文献の体系的なレビューは、2020年から2025年5月までに最も引用された研究の焦点を絞った分析である。
総計で128の論文が包括的基準を満たした。
記録はACM Digital Library、IEEE Xplore、Scopus、ScienceDirect、およびDigital Bibliography and Library Project (DBLP)から回収された。
RAGは生成言語モデルとニューラルレトリバーを結合し、モデル重みに格納されたセマンティック一般化を維持しながら、出力を最新の非パラメトリックメモリにグラウンドする。
PRISMA 2020フレームワークでガイドされました。
一 引用数及び研究質問に基づいて明示的含意及び排他基準を定めること。
(二 カタログデータセット、建築及び評価の実践
三 RAGの有効性及び限界に関する実証的証拠を合成すること。
2025年に発行された論文に、引用数バイアスを緩和するために、引用数閾値を低くして、自然に少ない引用数で出現するブレークスルーを捕えるようにした。
本稿では,現在の研究状況を明らかにするとともに,方法論的ギャップを強調し,今後の研究の方向性を示す。
関連論文リスト
- Modelling and Classifying the Components of a Literature Review [0.0]
本稿では, 言語モデル(LLM)を用いて, ドメインの専門家が手動で注釈付けした700文と, 自動ラベル付けされた2,240文からなる新しいベンチマークを提案する。
この実験は、この挑戦的な領域における芸術の状態を前進させるいくつかの新しい洞察をもたらす。
論文 参考訳(メタデータ) (2025-08-06T11:30:07Z) - HySemRAG: A Hybrid Semantic Retrieval-Augmented Generation Framework for Automated Literature Synthesis and Methodological Gap Analysis [55.2480439325792]
HySemRAGは、Extract, Transform, Load (ETL)パイプラインとRetrieval-Augmented Generation (RAG)を組み合わせたフレームワークである。
システムは、マルチ層アプローチを通じて既存のRAGアーキテクチャの制限に対処する。
論文 参考訳(メタデータ) (2025-08-01T20:30:42Z) - Advancing Offline Handwritten Text Recognition: A Systematic Review of Data Augmentation and Generation Techniques [4.5220419118352915]
本稿では,オフライン手書きデータの拡張と生成技術について調査する。
本稿では,近年のディープラーニングの進歩とともに,従来の拡張手法について検討する。
多様なリアルな筆跡サンプルの作成に関わる課題について検討する。
論文 参考訳(メタデータ) (2025-07-08T12:03:58Z) - BAGELS: Benchmarking the Automated Generation and Extraction of Limitations from Scholarly Text [6.682911432177815]
科学的研究において、制限とは研究における欠点、制約、弱点を指す。
著者は、しばしばa) 論文のテキストにそれらを下書きし、b) 編集要件を満たすためにヘッジ戦略を使用する。
この過度に報告された行動は、出版物の爆発と共に、そのような制限を自動で抽出したり、生成したりする必要が迫られている。
論文 参考訳(メタデータ) (2025-05-22T06:04:02Z) - Automating Bibliometric Analysis with Sentence Transformers and Retrieval-Augmented Generation (RAG): A Pilot Study in Semantic and Contextual Search for Customized Literature Characterization for High-Impact Urban Research [2.1728621449144763]
文献分析は、都市科学における研究動向、スコープ、影響を理解するために不可欠である。
キーワード検索に依存する伝統的な手法は、記事のタイトルやキーワードに明記されていない価値ある洞察を明らかにするのに失敗することが多い。
我々は、生成AIモデル、特にトランスフォーマーとレトリーバル拡張生成(RAG)を活用して、バイオロメトリ分析の自動化と強化を行う。
論文 参考訳(メタデータ) (2024-10-08T05:13:27Z) - Are Large Language Models Good Classifiers? A Study on Edit Intent Classification in Scientific Document Revisions [62.12545440385489]
大規模言語モデル(LLM)は、テキスト生成の大幅な進歩をもたらしたが、分類タスクの強化の可能性はまだ未検討である。
生成と符号化の両方のアプローチを含む分類のための微調整LDMを徹底的に研究するためのフレームワークを提案する。
我々はこのフレームワークを編集意図分類(EIC)においてインスタンス化する。
論文 参考訳(メタデータ) (2024-10-02T20:48:28Z) - Taxonomy Tree Generation from Citation Graph [15.188580557890942]
HiGTLは、人為的な指示や好みのトピックによってガイドされる、新しいエンドツーエンドフレームワークである。
我々は,各クラスタに中心的な概念を反復的に生成する,新しい分類ノード言語化戦略を開発した。
実験により、HiGTLはコヒーレントで高品質な概念を効果的に生成することが示された。
論文 参考訳(メタデータ) (2024-10-02T13:02:03Z) - Bias and Fairness in Large Language Models: A Survey [73.87651986156006]
本稿では,大規模言語モデル(LLM)のバイアス評価と緩和手法に関する総合的な調査を行う。
まず、自然言語処理における社会的偏見と公平性の概念を統合し、形式化し、拡張する。
次に,3つの直感的な2つのバイアス評価法と1つの緩和法を提案し,文献を統一する。
論文 参考訳(メタデータ) (2023-09-02T00:32:55Z) - A Survey on Text Classification: From Shallow to Deep Learning [83.47804123133719]
過去10年は、ディープラーニングが前例のない成功を収めたために、この分野の研究が急増している。
本稿では,1961年から2021年までの最先端のアプローチを見直し,そのギャップを埋める。
特徴抽出と分類に使用されるテキストとモデルに基づいて,テキスト分類のための分類を作成する。
論文 参考訳(メタデータ) (2020-08-02T00:09:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。