論文の概要: Question Decomposition for Retrieval-Augmented Generation
- arxiv url: http://arxiv.org/abs/2507.00355v1
- Date: Tue, 01 Jul 2025 01:01:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-03 14:22:59.15014
- Title: Question Decomposition for Retrieval-Augmented Generation
- Title(参考訳): 検索機能向上のための質問分解
- Authors: Paul J. L. Ammann, Jonas Golde, Alan Akbik,
- Abstract要約: 本稿では疑問分解をサブクエストに組み込んだRAGパイプラインを提案する。
補間的な文書を効果的に組み立てる一方で、再ランク付けによってノイズが減少することを示す。
再ランク自体は標準的なものであるが、LLMによる質問分解と既製のクロスエンコーダのペアリングは、マルチホップ質問の検索ギャップを橋渡しすることを示す。
- 参考スコア(独自算出の注目度): 2.6409776648054764
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Grounding large language models (LLMs) in verifiable external sources is a well-established strategy for generating reliable answers. Retrieval-augmented generation (RAG) is one such approach, particularly effective for tasks like question answering: it retrieves passages that are semantically related to the question and then conditions the model on this evidence. However, multi-hop questions, such as "Which company among NVIDIA, Apple, and Google made the biggest profit in 2023?," challenge RAG because relevant facts are often distributed across multiple documents rather than co-occurring in one source, making it difficult for standard RAG to retrieve sufficient information. To address this, we propose a RAG pipeline that incorporates question decomposition: (i) an LLM decomposes the original query into sub-questions, (ii) passages are retrieved for each sub-question, and (iii) the merged candidate pool is reranked to improve the coverage and precision of the retrieved evidence. We show that question decomposition effectively assembles complementary documents, while reranking reduces noise and promotes the most relevant passages before answer generation. Although reranking itself is standard, we show that pairing an off-the-shelf cross-encoder reranker with LLM-driven question decomposition bridges the retrieval gap on multi-hop questions and provides a practical, drop-in enhancement, without any extra training or specialized indexing. We evaluate our approach on the MultiHop-RAG and HotpotQA, showing gains in retrieval (MRR@10: +36.7%) and answer accuracy (F1: +11.6%) over standard RAG baselines.
- Abstract(参考訳): 検証可能な外部ソースで大きな言語モデル(LLM)をグラウンディングすることは、信頼性の高い回答を生成するための確立された戦略である。
Retrieval-augmented Generation (RAG) はそのようなアプローチの1つであり、特に質問応答のようなタスクに有効である。
しかし、NVIDIA、Apple、Googleのどちらが2023年に最大の利益を上げたのか」といったマルチホップの質問は、関連する事実が1つのソースで共起するのではなく、複数のドキュメントに分散しているため、標準のRAGが十分な情報を取得するのが難しいため、RAGに挑戦している。
この問題に対処するために,質問分解を組み込んだRAGパイプラインを提案する。
i) LLMは、元のクエリをサブクエリに分解する。
(二)各サブクエストのために通路を検索し、
3 合併候補プールは、回収された証拠のカバレッジ及び精度を向上させるために再選される。
質問の分解は補足的な文書を効果的に組み立てる一方で、リグレードはノイズを低減し、回答生成の前に最も関連性の高いパスを促進する。
再ランク自体が標準であるが,LLMによる質問分解と市販のクロスエンコーダ再エンコーダのペアリングは,マルチホップ質問の検索ギャップを橋渡しし,余分なトレーニングや特別な索引付けを行うことなく,実用的なドロップイン強化を提供することを示す。
我々は,MultiHop-RAG と HotpotQA に対するアプローチを評価し,MRR@10: +36.7%) と回答精度 (F1: +11.6%) が標準RAG ベースラインよりも高い値を示した。
関連論文リスト
- Retrieval-Augmented Generation with Conflicting Evidence [57.66282463340297]
大規模言語モデル (LLM) エージェントは、応答の事実性を改善するために、検索強化世代 (RAG) をますます採用している。
実際には、これらのシステムは曖昧なユーザクエリを処理し、複数のソースからの情報に衝突する可能性がある。
RAMDocs(Retrieval with Ambiguity and Misinformation in Documents)は,ユーザクエリのエビデンスを矛盾させるような,複雑で現実的なシナリオをシミュレートする新しいデータセットである。
論文 参考訳(メタデータ) (2025-04-17T16:46:11Z) - Chain-of-Retrieval Augmented Generation [72.06205327186069]
本稿では,o1-like RAGモデルを学習し,最終回答を生成する前に段階的に関連情報を抽出・推論する手法を提案する。
提案手法であるCoRAGは,進化状態に基づいて動的にクエリを再構成する。
論文 参考訳(メタデータ) (2025-01-24T09:12:52Z) - AUEB-Archimedes at RIRAG-2025: Is obligation concatenation really all you need? [11.172264842171682]
本稿では,RIRAG-2025のために開発したシステムについて述べる。
生成された回答は、参照フリーでモデルベースのメトリクスであるRePASを用いて評価される。
抽出された節から重要な文(「無視」)を抽出するRePASの神経成分を利用することで、精度の高いスコア(0.947)が得られることを示す。
そして、いくつかの代替案の中で最も優れたRePASで答えを選択することで、より可読で比較的高い結果が得られる可読で一貫性のある回答を生成することができることを示す。
論文 参考訳(メタデータ) (2024-12-16T08:54:21Z) - ELOQ: Resources for Enhancing LLM Detection of Out-of-Scope Questions [52.33835101586687]
本研究では,検索した文書が意味的に類似しているように見えるスコープ外質問について検討するが,答えるために必要な情報がない。
本稿では,閉経後の文書から多様なスコープ外質問を自動的に生成するための,幻覚に基づくELOQを提案する。
論文 参考訳(メタデータ) (2024-10-18T16:11:29Z) - Retrieve, Summarize, Plan: Advancing Multi-hop Question Answering with an Iterative Approach [6.549143816134531]
二重機能要約器を備えたReSPと呼ばれる新しい反復RAG法を提案する。
マルチホップ質問応答HotpotQAと2WikiMultihopQAの実験結果から,本手法が最先端技術よりも優れていることが示された。
論文 参考訳(メタデータ) (2024-07-18T02:19:00Z) - QPaug: Question and Passage Augmentation for Open-Domain Question Answering of LLMs [5.09189220106765]
オープンドメイン問合せタスクのための大規模言語モデル(LLM)を介してQPaug(Q and passage augmentation)と呼ばれるシンプルで効率的な手法を提案する。
実験の結果,QPaugは従来の最先端技術よりも優れており,既存のRAG法よりも大きな性能向上を実現していることがわかった。
論文 参考訳(メタデータ) (2024-06-20T12:59:27Z) - RQ-RAG: Learning to Refine Queries for Retrieval Augmented Generation [42.82192656794179]
大きな言語モデル(LLM)は優れた能力を示すが、不正確なあるいは幻覚反応を引き起こす傾向がある。
この制限は、膨大な事前トレーニングデータセットに依存することに起因するため、目に見えないシナリオでのエラーの影響を受けやすい。
Retrieval-Augmented Generation (RAG) は、外部の関連文書を応答生成プロセスに組み込むことによって、この問題に対処する。
論文 参考訳(メタデータ) (2024-03-31T08:58:54Z) - Joint Passage Ranking for Diverse Multi-Answer Retrieval [56.43443577137929]
質問に対する複数の異なる回答をカバーするために、パスの取得を必要とする探索不足の問題であるマルチアンサー検索について検討する。
モデルが別の有効な答えを逃す費用で同じ答えを含む通路を繰り返すべきではないので、このタスクは、検索された通路の共同モデリングを必要とします。
本稿では,再順位に着目したジョイントパス検索モデルであるJPRを紹介する。
回収された通路の合同確率をモデル化するために、JPRは、新しい訓練および復号アルゴリズムを備えた通路のシーケンスを選択する自動回帰リタイナを利用する。
論文 参考訳(メタデータ) (2021-04-17T04:48:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。