論文の概要: Comprehensive Comparison of RAG Methods Across Multi-Domain Conversational QA
- arxiv url: http://arxiv.org/abs/2602.09552v1
- Date: Tue, 10 Feb 2026 08:59:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-11 20:17:43.462576
- Title: Comprehensive Comparison of RAG Methods Across Multi-Domain Conversational QA
- Title(参考訳): マルチドメイン対話型QAにおけるRAG手法の総合的比較
- Authors: Klejda Alushi, Jan Strich, Chris Biemann, Martin Semmann,
- Abstract要約: 本稿では,マルチターン対話型QAにおけるRAG手法の体系的比較の欠如に対処する。
本研究では,8種類の対話型QAデータセットを対象とした,バニラ法と高度なRAG法に関する総合的研究を行った。
以上の結果から,再ランク付けやハイブリッドBM25,HyDEなどの頑健で簡便な手法がバニラRAGより一貫して優れていたことが示唆された。
- 参考スコア(独自算出の注目度): 18.46710400838861
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Conversational question answering increasingly relies on retrieval-augmented generation (RAG) to ground large language models (LLMs) in external knowledge. Yet, most existing studies evaluate RAG methods in isolation and primarily focus on single-turn settings. This paper addresses the lack of a systematic comparison of RAG methods for multi-turn conversational QA, where dialogue history, coreference, and shifting user intent substantially complicate retrieval. We present a comprehensive empirical study of vanilla and advanced RAG methods across eight diverse conversational QA datasets spanning multiple domains. Using a unified experimental setup, we evaluate retrieval quality and answer generation using generator and retrieval metrics, and analyze how performance evolves across conversation turns. Our results show that robust yet straightforward methods, such as reranking, hybrid BM25, and HyDE, consistently outperform vanilla RAG. In contrast, several advanced techniques fail to yield gains and can even degrade performance below the No-RAG baseline. We further demonstrate that dataset characteristics and dialogue length strongly influence retrieval effectiveness, explaining why no single RAG strategy dominates across settings. Overall, our findings indicate that effective conversational RAG depends less on method complexity than on alignment between the retrieval strategy and the dataset structure. We publish the code used.\footnote{\href{https://github.com/Klejda-A/exp-rag.git}{GitHub Repository}}
- Abstract(参考訳): 対話型質問応答は、外的知識において大きな言語モデル(LLM)を構築するために、検索強化世代(RAG)にますます依存している。
しかし、既存のほとんどの研究では、RAGメソッドを独立して評価し、主にシングルターン設定に焦点を当てている。
本稿では,対話履歴やコア参照,ユーザ意図のシフトといった,多ターン対話型QAのためのRAG手法の体系的比較が欠如していることに対処する。
本研究では,複数のドメインにまたがる8種類の会話型QAデータセットを対象とした,バニラ法と高度なRAG法に関する総合的研究を行った。
統合された実験装置を用いて,生成指標と検索指標を用いて,検索品質と回答生成を評価し,会話の旋回によってパフォーマンスがどう変化するかを分析する。
以上の結果から,再ランク付けやハイブリッドBM25,HyDEなどの頑健で簡便な手法がバニラRAGより一貫して優れていたことが示唆された。
対照的に、いくつかの高度な技術は利得を得られず、No-RAGベースラインよりも低い性能を低下させることができる。
さらに、データセットの特徴と対話長が検索効率に強く影響を与え、なぜ単一のRAG戦略が設定全体において支配的でないのかを説明する。
以上の結果から,効果的な対話型RAGは,検索戦略とデータセット構造との整合性よりも,手法の複雑さに左右されることが示唆された。
私たちは使用するコードを公開します。
https://github.com/Klejda-A/exp-rag.git}{GitHub Repository}}
関連論文リスト
- ReAG: Reasoning-Augmented Generation for Knowledge-based Visual Question Answering [54.72902502486611]
ReAG(Reasoning-Augmented Multimodal RAG)は、粗い部分ときめ細かい部分の検索と、無関係な通路をフィルタリングする批評家モデルを組み合わせた手法である。
ReAGは従来の手法よりも優れており、解答精度が向上し、検索された証拠に根ざした解釈可能な推論を提供する。
論文 参考訳(メタデータ) (2025-11-27T19:01:02Z) - RAGentA: Multi-Agent Retrieval-Augmented Generation for Attributed Question Answering [4.224843546370802]
本稿では,大規模言語モデル(LLM)を用いた属性質問応答フレームワークであるRAGentAを提案する。
RAGentAは、信頼できる回答生成の目標として、質問と忠実性に対するカバレッジと関連性によって定義された回答の正しさを最適化することに焦点を当てている。
フレームワークの中心は、スパースと密集したメソッドを組み合わせたハイブリッド検索戦略であり、最高の単一検索モデルと比較して、Recall@20を12.5%改善している。
論文 参考訳(メタデータ) (2025-06-20T13:37:03Z) - Chain-of-Retrieval Augmented Generation [91.02950964802454]
本稿では,o1-like RAGモデルを学習し,最終回答を生成する前に段階的に関連情報を抽出・推論する手法を提案する。
提案手法であるCoRAGは,進化状態に基づいて動的にクエリを再構成する。
論文 参考訳(メタデータ) (2025-01-24T09:12:52Z) - QuIM-RAG: Advancing Retrieval-Augmented Generation with Inverted Question Matching for Enhanced QA Performance [1.433758865948252]
本研究では,RAG(Retrieval-Augmented Generation)システム構築のための新しいアーキテクチャを提案する。
RAGアーキテクチャは、ターゲット文書から応答を生成するために構築される。
本稿では,本システムにおける検索機構の新しいアプローチQuIM-RAGを紹介する。
論文 参考訳(メタデータ) (2025-01-06T01:07:59Z) - Don't Do RAG: When Cache-Augmented Generation is All You Need for Knowledge Tasks [11.053340674721005]
検索拡張世代(RAG)は,外部知識ソースを統合することで言語モデルを強化する強力なアプローチとして注目されている。
本稿では、リアルタイム検索をバイパスする代替パラダイムであるキャッシュ拡張生成(CAG)を提案する。
論文 参考訳(メタデータ) (2024-12-20T06:58:32Z) - CRUD-RAG: A Comprehensive Chinese Benchmark for Retrieval-Augmented Generation of Large Language Models [49.16989035566899]
Retrieval-Augmented Generation (RAG)は、大規模言語モデル(LLM)の能力を高める技術である。
本稿では,大規模かつ包括的なベンチマークを構築し,様々なRAGアプリケーションシナリオにおけるRAGシステムのすべてのコンポーネントを評価する。
論文 参考訳(メタデータ) (2024-01-30T14:25:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。