論文の概要: Optimizing Question Semantic Space for Dynamic Retrieval-Augmented Multi-hop Question Answering
- arxiv url: http://arxiv.org/abs/2506.00491v1
- Date: Sat, 31 May 2025 09:57:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-05 01:42:09.196657
- Title: Optimizing Question Semantic Space for Dynamic Retrieval-Augmented Multi-hop Question Answering
- Title(参考訳): 動的検索型マルチホップ質問応答に対する質問セマンティック空間の最適化
- Authors: Linhao Ye, Lang Yu, Zhikai Lei, Qin Chen, Jie Zhou, Liang He,
- Abstract要約: Q-DREAMは,(1)質問分解モジュール (QDM) と(2)質問依存モジュール (SDOM) の3つの主要なモジュールから構成される。
様々なベンチマーク実験の結果、Q-DREAMは既存のRAGメソッドよりも大幅に優れており、ドメイン内およびドメイン外の両方で最先端の性能を実現している。
- 参考スコア(独自算出の注目度): 28.09833765246606
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Retrieval-augmented generation (RAG) is usually integrated into large language models (LLMs) to mitigate hallucinations and knowledge obsolescence. Whereas,conventional one-step retrieve-and-read methods are insufficient for multi-hop question answering, facing challenges of retrieval semantic mismatching and the high cost in handling interdependent subquestions. In this paper, we propose Optimizing Question Semantic Space for Dynamic Retrieval-Augmented Multi-hop Question Answering (Q-DREAM). Q-DREAM consists of three key modules: (1) the Question Decomposition Module (QDM), which decomposes multi-hop questions into fine-grained subquestions; (2) the Subquestion Dependency Optimizer Module (SDOM), which models the interdependent relations of subquestions for better understanding; and (3) the Dynamic Passage Retrieval Module (DPRM), which aligns subquestions with relevant passages by optimizing the semantic embeddings. Experimental results across various benchmarks demonstrate that Q-DREAM significantly outperforms existing RAG methods, achieving state-of-the-art performance in both in-domain and out-of-domain settings. Notably, Q-DREAM also improves retrieval efficiency while maintaining high accuracy compared with recent baselines.
- Abstract(参考訳): Retrieval-augmented Generation (RAG) は通常、幻覚や知識の陳腐化を緩和するために、大きな言語モデル (LLM) に統合される。
一方、従来の一段階の検索・読解手法は、多項目質問応答には不十分であり、検索セマンティックミスマッチの難しさや、相互依存的なサブクエスト処理のコストが高い。
本稿では,動的検索型マルチホップ質問応答 (Q-DREAM) に対する最適質問セマンティック空間を提案する。
Q-DREAMは,(1)質問分割モジュール (QDM) と(2)質問依存度最適化モジュール (SDOM) の3つの主要なモジュールから構成される。
様々なベンチマーク実験の結果、Q-DREAMは既存のRAGメソッドよりも大幅に優れており、ドメイン内およびドメイン外の両方で最先端の性能を実現している。
特に、Q-DREAMは、最近のベースラインと比較して高い精度を維持しながら、検索効率も向上する。
関連論文リスト
- Benchmarking Multimodal Retrieval Augmented Generation with Dynamic VQA Dataset and Self-adaptive Planning Agent [92.5712549836791]
マルチモーダル大規模言語モデル(MLLM)に固有の「ハロシン化」問題を緩和する上で,mRAG(Multimodal Retrieval Augmented Generation)が重要な役割を果たしている。
マルチモーダル検索のための自己適応型計画エージェントOmniSearchを提案する。
論文 参考訳(メタデータ) (2024-11-05T09:27:21Z) - EfficientRAG: Efficient Retriever for Multi-Hop Question Answering [52.64500643247252]
マルチホップ質問応答のための効率的な検索器であるEfficientRAGを紹介する。
実験の結果、EfficientRAGは3つのオープンドメインのマルチホップ質問応答データセット上で既存のRAG手法を超越していることがわかった。
論文 参考訳(メタデータ) (2024-08-08T06:57:49Z) - Retrieve, Summarize, Plan: Advancing Multi-hop Question Answering with an Iterative Approach [6.549143816134531]
二重機能要約器を備えたReSPと呼ばれる新しい反復RAG法を提案する。
マルチホップ質問応答HotpotQAと2WikiMultihopQAの実験結果から,本手法が最先端技術よりも優れていることが示された。
論文 参考訳(メタデータ) (2024-07-18T02:19:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。