論文の概要: Revisiting Query Variants: The Advantage of Retrieval Over Generation of Query Variants for Effective QPP
- arxiv url: http://arxiv.org/abs/2510.02512v1
- Date: Thu, 02 Oct 2025 19:36:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-06 16:35:52.147555
- Title: Revisiting Query Variants: The Advantage of Retrieval Over Generation of Query Variants for Effective QPP
- Title(参考訳): クエリ変数の再検討:効率的なQPPのためのクエリ変数の生成に対する検索のアドバンテージ
- Authors: Fangzheng Tian, Debasis Ganguly, Craig Macdonald,
- Abstract要約: 本稿では,QPPの所定のターゲットクエリに対するトレーニングセットからQVを抽出する手法を提案する。
最も類似した情報を必要とするクエリの検索において高いリコールを達成するため、直接検索したQVを第2検索により拡張する。
TREC DL'19 と DL'20 を用いて行った実験により,本手法により得られたQVを用いたQPP法は,既存のQVベースのQPP法よりも最大20%高い性能を示した。
- 参考スコア(独自算出の注目度): 24.439170886636788
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Leveraging query variants (QVs), i.e., queries with potentially similar information needs to the target query, has been shown to improve the effectiveness of query performance prediction (QPP) approaches. Existing QV-based QPP methods generate QVs facilitated by either query expansion or non-contextual embeddings, which may introduce topical drifts and hallucinations. In this paper, we propose a method that retrieves QVs from a training set (e.g., MS MARCO) for a given target query of QPP. To achieve a high recall in retrieving queries with the most similar information needs as the target query from a training set, we extend the directly retrieved QVs (1-hop QVs) by a second retrieval using their denoted relevant documents (which yields 2-hop QVs). Our experiments, conducted on TREC DL'19 and DL'20, show that the QPP methods with QVs retrieved by our method outperform the best-performing existing generated-QV-based QPP approaches by as much as around 20\%, on neural ranking models like MonoT5.
- Abstract(参考訳): クエリ変数(QV)の活用、すなわち、ターゲットクエリに潜在的に類似した情報を必要とするクエリは、クエリパフォーマンス予測(QPP)アプローチの有効性を改善するために示されている。
既存のQVベースのQPP手法は、クエリ拡張または非コンテキスト埋め込みによって促進されるQVを生成し、トピックドリフトや幻覚をもたらす可能性がある。
本稿では、トレーニングセット(例えば、MS MARCO)からQPPの所定のターゲットクエリに対してQVを検索する手法を提案する。
トレーニングセットからターゲットクエリとして最も類似した情報を必要とするクエリを検索する際の高いリコールを実現するため、直接検索されたQV(1ホップQVs)を、指定した関連文書(2ホップQVs)を使用して第2検索により拡張する。
TREC DL'19 と DL'20 を用いて行った実験により,提案手法により得られたQVを用いたQPP法は,MonoT5 などのニューラルランキングモデルにおいて,既存のQVベースのQPP法よりも最大20倍高い性能を示した。
関連論文リスト
- VQPP: Video Query Performance Prediction Benchmark [22.214338497366082]
ビデオクエリ性能予測(VQPP)のための最初のベンチマークを提案する。
VQPPには56Kのテキストクエリと51Kのビデオが含まれており、公式のトレーニング、検証、テストの分割が付属している。
検索前および検索後のパフォーマンス予測器を複数検討し、ビデオ領域におけるQPPの今後の探索のための代表的なベンチマークを作成する。
論文 参考訳(メタデータ) (2026-02-19T20:32:25Z) - Predicting Retrieval Utility and Answer Quality in Retrieval-Augmented Generation [24.439170886636788]
RAGの改善の鍵となる課題は、検索した文書の有用性と最終回答の品質の両方を、正確性と妥当性の観点から予測することである。
RAG内では,検索性能予測と生成性能予測という2つの予測タスクを定義している。
入力クエリに条件付けされた検索コンテキストのLLMの難易度など、読者中心の機能は、予測精度をさらに高めることができると論じる。
論文 参考訳(メタデータ) (2026-01-20T23:59:54Z) - ReAG: Reasoning-Augmented Generation for Knowledge-based Visual Question Answering [54.72902502486611]
ReAG(Reasoning-Augmented Multimodal RAG)は、粗い部分ときめ細かい部分の検索と、無関係な通路をフィルタリングする批評家モデルを組み合わせた手法である。
ReAGは従来の手法よりも優れており、解答精度が向上し、検索された証拠に根ざした解釈可能な推論を提供する。
論文 参考訳(メタデータ) (2025-11-27T19:01:02Z) - FrugalRAG: Learning to retrieve and reason for multi-hop QA [10.193015391271535]
RAGメトリクスを改善するために大規模な微調整は必要ない。
監督されたRLベースの微調整は、粗悪さの観点からRAGに役立つ。
論文 参考訳(メタデータ) (2025-07-10T11:02:13Z) - Query Performance Prediction using Relevance Judgments Generated by Large Language Models [53.97064615557883]
自動生成関連判定(QPP-GenRE)を用いた新しいクエリ性能予測(QPP)フレームワークを提案する。
QPP-GenREは、QPPを独立したサブタスクに分解し、ランクリスト内の各項目の関連性を所定のクエリに予測する。
我々は,オープンソースの大規模言語モデル (LLM) を用いて,科学的妥当性を確保することにより,項目の関連性を予測する。
論文 参考訳(メタデータ) (2024-04-01T09:33:05Z) - Query Performance Prediction: From Ad-hoc to Conversational Search [55.37199498369387]
クエリパフォーマンス予測(QPP)は、情報検索における中核的なタスクである。
アドホック検索におけるQPPの有効性と有用性について検討した。
その可能性にもかかわらず、会話検索のためのQPPはほとんど研究されていない。
論文 参考訳(メタデータ) (2023-05-18T12:37:01Z) - Toward Unsupervised Realistic Visual Question Answering [70.67698100148414]
現実的なVQA(RVQA)の問題について検討し、モデルが答えられない質問(UQ)を拒絶し、答えられる質問(AQ)に答えなければならない。
1)データセットには不整合UQが多すぎること,(2)多数の注釈付きUQがトレーニングに必要とされること,の2つの欠点を最初に指摘した。
我々は、既存のVQAデータセットのAQと約29万の人間の注釈付きUQを組み合わせた新しいテストデータセットRGQAを提案する。
これは、画像と質問をランダムにペアリングして得られる擬似UQと、それを結合する。
論文 参考訳(メタデータ) (2023-03-09T06:58:29Z) - Generating Diverse and Consistent QA pairs from Contexts with
Information-Maximizing Hierarchical Conditional VAEs [62.71505254770827]
非構造化テキストを文脈として与えられたQAペアを生成するための条件付き変分オートエンコーダ(HCVAE)を提案する。
我々のモデルは、トレーニングにわずかなデータしか使わず、両方のタスクの全てのベースラインに対して印象的なパフォーマンス向上が得られる。
論文 参考訳(メタデータ) (2020-05-28T08:26:06Z) - Harvesting and Refining Question-Answer Pairs for Unsupervised QA [95.9105154311491]
教師なし質問回答(QA)を改善するための2つのアプローチを提案する。
まず、ウィキペディアから語彙的・構文的に異なる質問を抽出し、質問応答対のコーパスを自動的に構築する(RefQAと名づけられる)。
第2に、より適切な回答を抽出するためにQAモデルを活用し、RefQA上でデータを反復的に洗練する。
論文 参考訳(メタデータ) (2020-05-06T15:56:06Z) - Template-Based Question Generation from Retrieved Sentences for Improved
Unsupervised Question Answering [98.48363619128108]
擬似学習データを用いてQAモデルを訓練するための教師なしアプローチを提案する。
関連した検索文に簡単なテンプレートを適用してQA学習のための質問を生成すると、元の文脈文よりも、下流QAのパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2020-04-24T17:57:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。