論文の概要: ReSCORE: Label-free Iterative Retriever Training for Multi-hop Question Answering with Relevance-Consistency Supervision
- arxiv url: http://arxiv.org/abs/2505.21250v1
- Date: Tue, 27 May 2025 14:28:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-28 17:05:58.719935
- Title: ReSCORE: Label-free Iterative Retriever Training for Multi-hop Question Answering with Relevance-Consistency Supervision
- Title(参考訳): ReSCORE:Relevance-Consistency Supervisionを用いたマルチホップ質問応答のためのラベルフリーイテレーティブ・リトリバートレーニング
- Authors: Dosung Lee, Wonjun Oh, Boyoung Kim, Minyoung Kim, Joonsuk Park, Paul Hongsuck Seo,
- Abstract要約: マルチホップ質問の回答には、複雑な質問に答えるために複数のドキュメントをまたがる推論が含まれる。
センスレトリバーは通常、セマンティック埋め込みを利用してBM25のようなスパースメソッドより優れている。
ReSCOREはラベル付き文書を使わずにMHQAの高密度検索を訓練するための新しい手法である。
- 参考スコア(独自算出の注目度): 23.80886911344813
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-hop question answering (MHQA) involves reasoning across multiple documents to answer complex questions. Dense retrievers typically outperform sparse methods like BM25 by leveraging semantic embeddings; however, they require labeled query-document pairs for fine-tuning. This poses a significant challenge in MHQA due to the high variability of queries (reformulated) questions throughout the reasoning steps. To overcome this limitation, we introduce Retriever Supervision with Consistency and Relevance (ReSCORE), a novel method for training dense retrievers for MHQA without labeled documents. ReSCORE leverages large language models to capture each documents relevance to the question and consistency with the correct answer and use them to train a retriever within an iterative question-answering framework. Experiments on three MHQA benchmarks demonstrate the effectiveness of ReSCORE, with significant improvements in retrieval, and in turn, the state-of-the-art MHQA performance. Our implementation is available at: https://leeds1219.github.io/ReSCORE.
- Abstract(参考訳): MHQA (Multi-hop question answering) は、複雑な質問に答えるために複数の文書にまたがる推論である。
センスレトリバーは、セマンティック埋め込みを利用してBM25のようなスパースメソッドよりも優れているが、微調整にはラベル付きクエリドキュメントペアが必要である。
このことは、MHQAにおいて、推論ステップ全体にわたるクエリ(リフォーム)の高ばらつきのため、大きな課題となる。
この制限を克服するために、ラベル付き文書を使わずにMHQAの高密度検索者を訓練するための新しい手法ReSCORE(Retriever Supervision with Consistency and Relevance)を導入する。
ReSCOREは、大きな言語モデルを活用して、質問と正しい回答との整合性に関連する各ドキュメントをキャプチャし、反復的な質問回答フレームワーク内でレトリバーをトレーニングする。
3つのMHQAベンチマークの実験では、ReSCOREの有効性が示され、検索が大幅に改善され、最先端のMHQAの性能が向上した。
私たちの実装は、https://leeds1219.github.io/ReSCORE.comで公開されています。
関連論文リスト
- EfficientRAG: Efficient Retriever for Multi-Hop Question Answering [52.64500643247252]
マルチホップ質問応答のための効率的な検索器であるEfficientRAGを紹介する。
実験の結果、EfficientRAGは3つのオープンドメインのマルチホップ質問応答データセット上で既存のRAG手法を超越していることがわかった。
論文 参考訳(メタデータ) (2024-08-08T06:57:49Z) - Conversational Query Reformulation with the Guidance of Retrieved Documents [4.438698005789677]
本稿では,最初に検索したドキュメントからキー情報を活用することでクエリを洗練するフレームワークである GuideCQR を紹介する。
提案手法は,複数のデータセットにまたがる最先端性能を実現し,従来のCQR手法よりも優れていた。
論文 参考訳(メタデータ) (2024-07-17T07:39:16Z) - BRIGHT: A Realistic and Challenging Benchmark for Reasoning-Intensive Retrieval [54.54576644403115]
BRIGHTは、関係する文書を検索するために、集中的推論を必要とする最初のテキスト検索ベンチマークである。
私たちのデータセットは、経済学、心理学、数学、コーディングなど、さまざまな領域にまたがる1,384の現実世界のクエリで構成されています。
クエリに関する明示的な推論を取り入れることで、検索性能が最大12.2ポイント向上することを示す。
論文 参考訳(メタデータ) (2024-07-16T17:58:27Z) - AugTriever: Unsupervised Dense Retrieval and Domain Adaptation by Scalable Data Augmentation [44.93777271276723]
擬似クエリドキュメントペアを作成することにより,アノテーションフリーでスケーラブルなトレーニングを可能にする2つのアプローチを提案する。
クエリ抽出方法は、元のドキュメントから有能なスパンを選択して擬似クエリを生成する。
転送クエリ生成方法は、要約などの他のNLPタスクのために訓練された生成モデルを使用して、擬似クエリを生成する。
論文 参考訳(メタデータ) (2022-12-17T10:43:25Z) - CONQRR: Conversational Query Rewriting for Retrieval with Reinforcement
Learning [16.470428531658232]
本研究では,会話型質問を独立した質問に書き換えるクエリ書き換えモデルCONQRRを提案する。
CONQRR は最近のオープンドメイン CQA データセットで最先端の結果が得られることを示す。
論文 参考訳(メタデータ) (2021-12-16T01:40:30Z) - Weakly Supervised Pre-Training for Multi-Hop Retriever [23.79574380039197]
本研究では,人的努力を伴わない,弱教師付きマルチホップレトリバーの事前学習手法を提案する。
提案手法は,1)複雑な質問のベクトル表現を生成するための事前学習タスク,2)厳密なエンコーダに基づく事前学習モデル構造として,質問とサブクエストのネスト構造を生成するスケーラブルなデータ生成手法を含む。
論文 参考訳(メタデータ) (2021-06-18T08:06:02Z) - Open Question Answering over Tables and Text [55.8412170633547]
オープンな質問応答(QA)では、質問に対する回答は、質問に対する回答を含む可能性のある文書を検索して分析することによって生成される。
ほとんどのオープンQAシステムは、構造化されていないテキストからのみ情報を取得することを検討している。
我々は,このタスクの性能を評価するために,新しい大規模データセット Open Table-and-Text Question Answering (OTT-QA) を提案する。
論文 参考訳(メタデータ) (2020-10-20T16:48:14Z) - Answering Any-hop Open-domain Questions with Iterative Document
Reranking [62.76025579681472]
オープンドメインの問に答える統合QAフレームワークを提案する。
提案手法は,シングルホップおよびマルチホップのオープンドメインQAデータセットにおいて,最先端技術に匹敵する性能を継続的に達成する。
論文 参考訳(メタデータ) (2020-09-16T04:31:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。