論文の概要: Generalized Pseudo-Relevance Feedback
- arxiv url: http://arxiv.org/abs/2510.25488v1
- Date: Wed, 29 Oct 2025 13:08:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-30 15:50:45.583087
- Title: Generalized Pseudo-Relevance Feedback
- Title(参考訳): 一般化擬似関連フィードバック
- Authors: Yiteng Tu, Weihang Su, Yujia Zhou, Yiqun Liu, Fen Lin, Qin Liu, Qingyao Ai,
- Abstract要約: textit Generalized Pseudo Relevance Feedback (GPRF)
GPRFは、検索した文書に基づいて、モデルフリーで自然言語の書き直しを行う。
複数のベンチマークとレトリバーによる実験は、GPRFが強いベースラインを一貫して上回っていることを示している。
- 参考スコア(独自算出の注目度): 29.669164314207947
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Query rewriting is a fundamental technique in information retrieval (IR). It typically employs the retrieval result as relevance feedback to refine the query and thereby addresses the vocabulary mismatch between user queries and relevant documents. Traditional pseudo-relevance feedback (PRF) and its vector-based extension (VPRF) improve retrieval performance by leveraging top-retrieved documents as relevance feedback. However, they are constructed based on two major hypotheses: the relevance assumption (top documents are relevant) and the model assumption (rewriting methods need to be designed specifically for particular model architectures). While recent large language models (LLMs)-based generative relevance feedback (GRF) enables model-free query reformulation, it either suffers from severe LLM hallucination or, again, relies on the relevance assumption to guarantee the effectiveness of rewriting quality. To overcome these limitations, we introduce an assumption-relaxed framework: \textit{Generalized Pseudo Relevance Feedback} (GPRF), which performs model-free, natural language rewriting based on retrieved documents, not only eliminating the model assumption but also reducing dependence on the relevance assumption. Specifically, we design a utility-oriented training pipeline with reinforcement learning to ensure robustness against noisy feedback. Extensive experiments across multiple benchmarks and retrievers demonstrate that GPRF consistently outperforms strong baselines, establishing it as an effective and generalizable framework for query rewriting.
- Abstract(参考訳): クエリ書き換えは情報検索(IR)の基本技術である。
通常、検索結果を関連性フィードバックとして使用してクエリを洗練させ、ユーザクエリと関連するドキュメント間の語彙ミスマッチに対処する。
従来の擬似関連フィードバック(PRF)とそのベクトルベース拡張(VPRF)は、関連フィードバックとしてトップ検索ドキュメントを活用することにより、検索性能を向上させる。
しかし、これらは関連性仮定(トップドキュメントは関連している)とモデル仮定(特定のモデルアーキテクチャに特化して書き直しメソッドを設計する必要がある)という2つの主要な仮説に基づいて構築されている。
近年の大規模言語モデル (LLMs) に基づく生成関連フィードバック (GRF) は, モデルフリーなクエリ再構成を可能にするが, 深刻なLLM幻覚に悩まされるか, あるいは再度, 書き換え品質の有効性を保証するための関連仮定に依存する。
このような制約を克服するために, GPRF (textit{ Generalized Pseudo Relevance Feedback}) という仮定関連フレームワークを導入する。
具体的には、ノイズフィードバックに対する堅牢性を確保するために、強化学習を備えたユーティリティ指向のトレーニングパイプラインを設計する。
複数のベンチマークとレトリバーにわたる大規模な実験により、GPRFは強いベースラインを一貫して上回り、クエリ書き換えのための効果的で一般化可能なフレームワークとして確立された。
関連論文リスト
- Reasoning-enhanced Query Understanding through Decomposition and Interpretation [87.56450566014625]
ReDIは、分解と解釈によるクエリ理解のための推論強化アプローチである。
我々は,大規模検索エンジンから実世界の複雑なクエリの大規模データセットをコンパイルした。
BRIGHT と BEIR の実験により、ReDI はスパースと密度の高い検索パラダイムの両方において、強いベースラインを一貫して超えることを示した。
論文 参考訳(メタデータ) (2025-09-08T10:58:42Z) - Decomposed Reasoning with Reinforcement Learning for Relevance Assessment in UGC Platforms [30.51899823655511]
Retrieval-augmented Generation (RAG)は、ユーザ生成コンテンツプラットフォームにおいて重要な役割を果たす。
1)RAGシナリオにおけるユーザフィードバックの少なさによる曖昧なユーザ意図,2)非公式言語や非構造化言語によって導入された相当なノイズ。
論文 参考訳(メタデータ) (2025-08-04T15:14:09Z) - MaFeRw: Query Rewriting with Multi-Aspect Feedbacks for Retrieval-Augmented Large Language Models [22.50450558103786]
現実世界のRAGシステムでは、現在のクエリは会話コンテキストからの音声楕円とあいまいな参照を含むことが多い。
本稿では,検索プロセスと生成結果の両方からマルチアスペクトフィードバックを統合することにより,RAG性能を向上させる新しいクエリ書き換え手法MaFeRwを提案する。
2つの対話型RAGデータセットの実験結果から、MaFeRwはベースラインよりも優れた生成指標と安定したトレーニングを達成できることが示された。
論文 参考訳(メタデータ) (2024-08-30T07:57:30Z) - RaFe: Ranking Feedback Improves Query Rewriting for RAG [83.24385658573198]
アノテーションを使わずにクエリ書き換えモデルをトレーニングするためのフレームワークを提案する。
公開されているリランカを活用することで、フィードバックはリライトの目的とよく一致します。
論文 参考訳(メタデータ) (2024-05-23T11:00:19Z) - RLVF: Learning from Verbal Feedback without Overgeneralization [94.19501420241188]
本稿では,このような過度な一般化を伴わずに,言語フィードバックを取り入れることの課題について検討する。
制約付き選好最適化(C3PO)を用いた新しい文脈的批評手法を開発した。
提案手法は,他の文脈に対する既存行動を維持しながら,関連するシナリオに対して効果的な言語フィードバックを適用する。
論文 参考訳(メタデータ) (2024-02-16T18:50:24Z) - LoL: A Comparative Regularization Loss over Query Reformulation Losses
for Pseudo-Relevance Feedback [70.44530794897861]
Pseudo-Relevance feedback (PRF) は、検索精度を向上させるための効果的なクエリ修正手法であることが証明されている。
既存のPRF手法は、同じクエリから派生した修正クエリを個別に扱うが、異なる数のフィードバックドキュメントを使用する。
そこで我々はLos-over-Loss(LoL)フレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-25T10:42:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。