論文の概要: Revisiting Feedback Models for HyDE
- arxiv url: http://arxiv.org/abs/2511.19349v1
- Date: Mon, 24 Nov 2025 17:50:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:25.3513
- Title: Revisiting Feedback Models for HyDE
- Title(参考訳): HyDEのフィードバックモデルの再検討
- Authors: Nour Jedidi, Jimmy Lin,
- Abstract要約: HyDE は LLM 生成した仮説的回答文書でクエリ表現を豊かにする手法である。
実験の結果,Rocchioなどのフィードバックアルゴリズムを利用して抽出と重み拡張を行う場合,HyDEの有効性は著しく向上することがわかった。
- 参考スコア(独自算出の注目度): 49.53124785319461
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent approaches that leverage large language models (LLMs) for pseudo-relevance feedback (PRF) have generally not utilized well-established feedback models like Rocchio and RM3 when expanding queries for sparse retrievers like BM25. Instead, they often opt for a simple string concatenation of the query and LLM-generated expansion content. But is this optimal? To answer this question, we revisit and systematically evaluate traditional feedback models in the context of HyDE, a popular method that enriches query representations with LLM-generated hypothetical answer documents. Our experiments show that HyDE's effectiveness can be substantially improved when leveraging feedback algorithms such as Rocchio to extract and weight expansion terms, providing a simple way to further enhance the accuracy of LLM-based PRF methods.
- Abstract(参考訳): 大規模言語モデル(LLM)を擬似関連フィードバック(PRF)に活用する最近のアプローチは、BM25のようなスパースレトリバーのクエリを拡張する際に、一般的にはRocchioやRM3のような確立したフィードバックモデルを使用しない。
代わりに、クエリとLLM生成した拡張コンテンツの単純な文字列結合を選択することが多い。
しかし、これは最適だろうか?
この問いに答えるために,LLM生成した仮説的回答文書でクエリ表現を充実させるHyDEの文脈で,従来のフィードバックモデルを再検討し,体系的に評価する。
実験の結果,HyDE の有効性は,Rocchio などのフィードバックアルゴリズムを用いて抽出と重み付けを行う場合に大きく向上し,LCM ベースの PRF 法の精度を高めるための簡単な方法が得られた。
関連論文リスト
- Generalized Pseudo-Relevance Feedback [29.669164314207947]
textit Generalized Pseudo Relevance Feedback (GPRF)
GPRFは、検索した文書に基づいて、モデルフリーで自然言語の書き直しを行う。
複数のベンチマークとレトリバーによる実験は、GPRFが強いベースラインを一貫して上回っていることを示している。
論文 参考訳(メタデータ) (2025-10-29T13:08:35Z) - Rethinking On-policy Optimization for Query Augmentation [49.87723664806526]
本稿では,様々なベンチマークにおいて,プロンプトベースとRLベースのクエリ拡張の最初の体系的比較を示す。
そこで我々は,検索性能を最大化する擬似文書の生成を学習する,新しいハイブリッド手法 On-policy Pseudo-document Query Expansion (OPQE) を提案する。
論文 参考訳(メタデータ) (2025-10-20T04:16:28Z) - How Do LLM-Generated Texts Impact Term-Based Retrieval Models? [76.92519309816008]
本稿では,大規模言語モデル(LLM)が項ベース検索モデルに与える影響について検討する。
言語学的解析により,LLM生成テキストはよりスムーズで低周波なZipf勾配を示すことが明らかとなった。
本研究は,項分布がクエリと密接に一致した文書を優先して,項ベース検索モデルがソースバイアスを示すかどうかを考察する。
論文 参考訳(メタデータ) (2025-08-25T06:43:27Z) - R$^2$ec: Towards Large Recommender Models with Reasoning [59.32598867813266]
R$2$ecは、本質的な推論能力を持つ統一された大型レコメンデータモデルである。
R$2$ecは、推論チェーン生成と効率的なアイテム予測の両方を単一のモデルでサポートするデュアルヘッドアーキテクチャを導入している。
注釈付き推論データの欠如を克服するため、強化学習フレームワークであるRecPOを設計する。
論文 参考訳(メタデータ) (2025-05-22T17:55:43Z) - LLM-VPRF: Large Language Model Based Vector Pseudo Relevance Feedback [31.017301950179295]
ベクトルPseudo Relevance Feedback (VPRF) はBERTに基づく高密度検索システムの改善に有望な結果を示した。
本稿では,大言語モデル(LLM)に基づく高密度検索器におけるVPRFの一般化可能性について検討する。
論文 参考訳(メタデータ) (2025-04-02T08:02:01Z) - Pseudo Relevance Feedback is Enough to Close the Gap Between Small and Large Dense Retrieval Models [29.934928091542375]
大規模言語モデル (LLM) のバックボーンに高密度レトリバーを拡張させることは, 検索効率を向上させる主要な戦略である。
本稿では,機能ベースの擬似関連フィードバック(PRF)フレームワークであるPromptPRFを紹介する。
論文 参考訳(メタデータ) (2025-03-19T04:30:20Z) - GenCRF: Generative Clustering and Reformulation Framework for Enhanced Intent-Driven Information Retrieval [20.807374287510623]
我々は,多種多様な意図を適応的に捉えるための生成クラスタリング・改革フレームワークGenCRFを提案する。
我々はGenCRFが,nDCG@10で従来のクエリ修正SOTAを最大12%上回り,最先端のパフォーマンスを実現していることを示す。
論文 参考訳(メタデータ) (2024-09-17T05:59:32Z) - RaFe: Ranking Feedback Improves Query Rewriting for RAG [83.24385658573198]
アノテーションを使わずにクエリ書き換えモデルをトレーニングするためのフレームワークを提案する。
公開されているリランカを活用することで、フィードバックはリライトの目的とよく一致します。
論文 参考訳(メタデータ) (2024-05-23T11:00:19Z) - Regression-aware Inference with LLMs [52.764328080398805]
提案手法は,一般的な回帰と評価指標に準最適であることを示す。
本稿では,ベイズ最適解を推定し,サンプル応答からクローズド形式の評価指標を推定する代替推論手法を提案する。
論文 参考訳(メタデータ) (2024-03-07T03:24:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。