論文の概要: LoL: A Comparative Regularization Loss over Query Reformulation Losses
for Pseudo-Relevance Feedback
- arxiv url: http://arxiv.org/abs/2204.11545v1
- Date: Mon, 25 Apr 2022 10:42:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-26 18:34:35.657387
- Title: LoL: A Comparative Regularization Loss over Query Reformulation Losses
for Pseudo-Relevance Feedback
- Title(参考訳): LoL: 擬似関連フィードバックに対するクエリ修正損失の比較正規化損失
- Authors: Yunchang Zhu, Liang Pang, Yanyan Lan, Huawei Shen, Xueqi Cheng
- Abstract要約: Pseudo-Relevance feedback (PRF) は、検索精度を向上させるための効果的なクエリ修正手法であることが証明されている。
既存のPRF手法は、同じクエリから派生した修正クエリを個別に扱うが、異なる数のフィードバックドキュメントを使用する。
そこで我々はLos-over-Loss(LoL)フレームワークを提案する。
- 参考スコア(独自算出の注目度): 70.44530794897861
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Pseudo-relevance feedback (PRF) has proven to be an effective query
reformulation technique to improve retrieval accuracy. It aims to alleviate the
mismatch of linguistic expressions between a query and its potential relevant
documents. Existing PRF methods independently treat revised queries originating
from the same query but using different numbers of feedback documents,
resulting in severe query drift. Without comparing the effects of two different
revisions from the same query, a PRF model may incorrectly focus on the
additional irrelevant information increased in the more feedback, and thus
reformulate a query that is less effective than the revision using the less
feedback. Ideally, if a PRF model can distinguish between irrelevant and
relevant information in the feedback, the more feedback documents there are,
the better the revised query will be. To bridge this gap, we propose the
Loss-over-Loss (LoL) framework to compare the reformulation losses between
different revisions of the same query during training. Concretely, we revise an
original query multiple times in parallel using different amounts of feedback
and compute their reformulation losses. Then, we introduce an additional
regularization loss on these reformulation losses to penalize revisions that
use more feedback but gain larger losses. With such comparative regularization,
the PRF model is expected to learn to suppress the extra increased irrelevant
information by comparing the effects of different revised queries. Further, we
present a differentiable query reformulation method to implement this
framework. This method revises queries in the vector space and directly
optimizes the retrieval performance of query vectors, applicable for both
sparse and dense retrieval models. Empirical evaluation demonstrates the
effectiveness and robustness of our method for two typical sparse and dense
retrieval models.
- Abstract(参考訳): Pseudo-Relevance feedback (PRF) は、検索精度を向上させるための効果的なクエリ修正手法であることが証明されている。
クエリとその潜在的なドキュメント間の言語表現のミスマッチを緩和することを目的としている。
既存のprfメソッドは、同じクエリに由来する修正されたクエリを独立に扱うが、異なる数のフィードバックドキュメントを使用する。
同じクエリから2つの異なるリビジョンの効果を比較することなく、PRFモデルはより多くのフィードバックで増大した付加的な無関係情報に誤ってフォーカスし、少ないフィードバックでリビジョンよりも効果の低いクエリを再構成する。
理想的には、もしPRFモデルがフィードバックの無関係な情報と関連する情報を区別できるなら、そこにあるフィードバックドキュメントが多ければ多いほど、修正されたクエリがより良くなるでしょう。
このギャップを埋めるため、トレーニング中に同じクエリの異なるリビジョン間のリビジョン損失を比較するためにLos-over-Loss(LoL)フレームワークを提案する。
具体的には、異なる量のフィードバックを用いて、元のクエリを複数回並列に修正し、その修正損失を計算する。
次に,これらの再編成ロスに対する追加の正規化損失を導入し,フィードバックを多く使用するが損失が大きくなるリビジョンを罰する。
このような比較正則化により、PRFモデルは、異なる改訂クエリの効果を比較することで、付加的な無関係情報の増加を抑えることを学習することが期待される。
さらに、このフレームワークを実装するために、異なるクエリ再構成手法を提案する。
本手法は,ベクトル空間におけるクエリを再検討し,スパースモデルと密度検索モデルの両方に適用可能なクエリベクトルの検索性能を直接最適化する。
実験による評価は,2つの典型的なスパースモデルと高密度検索モデルの有効性とロバスト性を示す。
関連論文リスト
- GenCRF: Generative Clustering and Reformulation Framework for Enhanced Intent-Driven Information Retrieval [20.807374287510623]
我々は,多種多様な意図を適応的に捉えるための生成クラスタリング・改革フレームワークGenCRFを提案する。
我々はGenCRFが,nDCG@10で従来のクエリ修正SOTAを最大12%上回り,最先端のパフォーマンスを実現していることを示す。
論文 参考訳(メタデータ) (2024-09-17T05:59:32Z) - MaFeRw: Query Rewriting with Multi-Aspect Feedbacks for Retrieval-Augmented Large Language Models [34.39053202801489]
現実世界のRAGシステムでは、現在のクエリは会話コンテキストからの音声楕円とあいまいな参照を含むことが多い。
本稿では,検索プロセスと生成結果の両方からマルチアスペクトフィードバックを統合することにより,RAG性能を向上させる新しいクエリ書き換え手法MaFeRwを提案する。
2つの対話型RAGデータセットの実験結果から、MaFeRwはベースラインよりも優れた生成指標と安定したトレーニングを達成できることが示された。
論文 参考訳(メタデータ) (2024-08-30T07:57:30Z) - Optimization of Retrieval-Augmented Generation Context with Outlier Detection [0.0]
そこで本研究では,質問応答システムに必要な文脈の小型化と品質向上に焦点をあてる。
私たちのゴールは、最も意味のあるドキュメントを選択し、捨てられたドキュメントをアウトリーチとして扱うことです。
その結果,質問や回答の複雑さを増大させることで,最大の改善が達成された。
論文 参考訳(メタデータ) (2024-07-01T15:53:29Z) - SparseCL: Sparse Contrastive Learning for Contradiction Retrieval [87.02936971689817]
コントラディション検索(Contradiction Search)とは、クエリの内容に明示的に異を唱える文書を識別し、抽出することである。
類似性探索やクロスエンコーダモデルといった既存の手法には、大きな制限がある。
文間の微妙で矛盾したニュアンスを保存するために特別に訓練された文埋め込みを利用するSparseCLを導入する。
論文 参考訳(メタデータ) (2024-06-15T21:57:03Z) - Generative Query Reformulation Using Ensemble Prompting, Document Fusion, and Relevance Feedback [8.661419320202787]
GenQREnsembleとGenQRFusionはゼロショット命令のパラフレーズを利用して複数のキーワードセットを生成し、検索性能を向上させる。
検索前設定ではnDCG@10で最大18%,検索後設定では9%の精度で検索効率を向上できることを示す。
論文 参考訳(メタデータ) (2024-05-27T21:03:26Z) - RaFe: Ranking Feedback Improves Query Rewriting for RAG [83.24385658573198]
アノテーションを使わずにクエリ書き換えモデルをトレーニングするためのフレームワークを提案する。
公開されているリランカを活用することで、フィードバックはリライトの目的とよく一致します。
論文 参考訳(メタデータ) (2024-05-23T11:00:19Z) - ReFIT: Relevance Feedback from a Reranker during Inference [109.33278799999582]
Retrieve-and-Rerankは、ニューラル情報検索の一般的なフレームワークである。
本稿では,リランカを利用してリコールを改善する手法を提案する。
論文 参考訳(メタデータ) (2023-05-19T15:30:33Z) - Factual Error Correction for Abstractive Summaries Using Entity
Retrieval [57.01193722520597]
本稿では,エンティティ検索後処理に基づく効率的な事実誤り訂正システムRFECを提案する。
RFECは、原文と対象要約とを比較して、原文から証拠文を検索する。
次に、RFECは、エビデンス文を考慮し、要約中のエンティティレベルのエラーを検出し、エビデンス文から正確なエンティティに置換する。
論文 参考訳(メタデータ) (2022-04-18T11:35:02Z) - Joint Passage Ranking for Diverse Multi-Answer Retrieval [56.43443577137929]
質問に対する複数の異なる回答をカバーするために、パスの取得を必要とする探索不足の問題であるマルチアンサー検索について検討する。
モデルが別の有効な答えを逃す費用で同じ答えを含む通路を繰り返すべきではないので、このタスクは、検索された通路の共同モデリングを必要とします。
本稿では,再順位に着目したジョイントパス検索モデルであるJPRを紹介する。
回収された通路の合同確率をモデル化するために、JPRは、新しい訓練および復号アルゴリズムを備えた通路のシーケンスを選択する自動回帰リタイナを利用する。
論文 参考訳(メタデータ) (2021-04-17T04:48:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。