論文の概要: LLM-Assisted Pseudo-Relevance Feedback
- arxiv url: http://arxiv.org/abs/2601.11238v1
- Date: Fri, 16 Jan 2026 12:31:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-19 20:21:50.486303
- Title: LLM-Assisted Pseudo-Relevance Feedback
- Title(参考訳): LLM支援擬似関連フィードバック
- Authors: David Otero, Javier Parapar,
- Abstract要約: RM3のような擬似関連フィードバック手法は、上位文書から拡張クエリモデルを推定する。
本稿では,従来のPRFの頑健さと解釈可能性を維持しつつ,意味的判断を活用できるハイブリッドな代替案を提案する。
- 参考スコア(独自算出の注目度): 5.10348690267577
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Query expansion is a long-standing technique to mitigate vocabulary mismatch in ad hoc Information Retrieval. Pseudo-relevance feedback methods, such as RM3, estimate an expanded query model from the top-ranked documents, but remain vulnerable to topic drift when early results include noisy or tangential content. Recent approaches instead prompt Large Language Models to generate synthetic expansions or query variants. While effective, these methods risk hallucinations and misalignment with collection-specific terminology. We propose a hybrid alternative that preserves the robustness and interpretability of classical PRF while leveraging LLM semantic judgement. Our method inserts an LLM-based filtering stage prior to RM3 estimation: the LLM judges the documents in the initial top-$k$ ranking, and RM3 is computed only over those accepted as relevant. This simple intervention improves over blind PRF and a strong baseline across several datasets and metrics.
- Abstract(参考訳): クエリ拡張は、アドホックな情報検索における語彙ミスマッチを緩和するための長年のテクニックである。
RM3のような擬似関連フィードバック手法は、上位文書から拡張されたクエリモデルを推定するが、初期結果にノイズや具体的な内容が含まれている場合、トピックドリフトに弱いままである。
近年のアプローチでは、Large Language Modelsが合成拡張やクエリの変種を生成するように促されている。
効果はあるものの、これらの手法は幻覚やコレクション固有の用語の誤用を危険にさらす。
LLMのセマンティックな判断を生かしながら、古典的PRFの頑健さと解釈性を保ったハイブリッドな代替案を提案する。
本手法は, RM3推定に先立って, LLMに基づくフィルタリング段階を挿入する: LLMは初期上位k$の文書を判定し, RM3は該当する文書に対してのみ計算される。
この単純な介入は、ブラインドPRFよりも改善され、複数のデータセットとメトリクスをまたいだ強力なベースラインとなる。
関連論文リスト
- Revisiting Feedback Models for HyDE [49.53124785319461]
HyDE は LLM 生成した仮説的回答文書でクエリ表現を豊かにする手法である。
実験の結果,Rocchioなどのフィードバックアルゴリズムを利用して抽出と重み拡張を行う場合,HyDEの有効性は著しく向上することがわかった。
論文 参考訳(メタデータ) (2025-11-24T17:50:18Z) - HADSF: Aspect Aware Semantic Control for Explainable Recommendation [4.75127493865044]
大規模言語モデル(LLM)の最近の進歩は、推薦システムに対してより効果的な情報抽出を約束している。
本稿では,適応選択によるコンパクトなコーパスレベルのアスペクトボキャブラリを誘導し,構造化アスペクトオピニオン三重項のボキャブラリ誘導,明示的に制約された抽出を行う2段階アプローチを提案する。
1.5B-70Bパラメータにまたがる約300万のレビューに関する実験では、標準評価予測器に統合された場合、HADSFは予測エラーを一貫して減少させる。
論文 参考訳(メタデータ) (2025-10-30T20:49:33Z) - Rethinking On-policy Optimization for Query Augmentation [49.87723664806526]
本稿では,様々なベンチマークにおいて,プロンプトベースとRLベースのクエリ拡張の最初の体系的比較を示す。
そこで我々は,検索性能を最大化する擬似文書の生成を学習する,新しいハイブリッド手法 On-policy Pseudo-document Query Expansion (OPQE) を提案する。
論文 参考訳(メタデータ) (2025-10-20T04:16:28Z) - How Do LLM-Generated Texts Impact Term-Based Retrieval Models? [76.92519309816008]
本稿では,大規模言語モデル(LLM)が項ベース検索モデルに与える影響について検討する。
言語学的解析により,LLM生成テキストはよりスムーズで低周波なZipf勾配を示すことが明らかとなった。
本研究は,項分布がクエリと密接に一致した文書を優先して,項ベース検索モデルがソースバイアスを示すかどうかを考察する。
論文 参考訳(メタデータ) (2025-08-25T06:43:27Z) - LLM-Lasso: A Robust Framework for Domain-Informed Feature Selection and Regularization [59.75242204923353]
LLM-Lassoは大規模言語モデル(LLM)を利用してラッソ回帰における特徴選択を導くフレームワークである。
LLMは各特徴に対してペナルティ因子を生成し、単純でチューニング可能なモデルを用いてラスソペナルティの重みに変換される。
LLMによりより関連づけられた特徴は、より低い罰を受け、最終モデルに保持される可能性を高める。
論文 参考訳(メタデータ) (2025-02-15T02:55:22Z) - LLM with Relation Classifier for Document-Level Relation Extraction [25.587850398830252]
大規模言語モデル(LLM)は、自然言語処理のための新しいパラダイムを生み出した。
本稿では,この性能ギャップの原因を解明し,関係のないエンティティペアによるLCMによる注意の分散を重要要因とする。
論文 参考訳(メタデータ) (2024-08-25T16:43:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。