論文の概要: Single-Turn LLM Reformulation Powered Multi-Stage Hybrid Re-Ranking for Tip-of-the-Tongue Known-Item Retrieval
- arxiv url: http://arxiv.org/abs/2602.10321v1
- Date: Tue, 10 Feb 2026 21:59:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-12 21:44:01.302929
- Title: Single-Turn LLM Reformulation Powered Multi-Stage Hybrid Re-Ranking for Tip-of-the-Tongue Known-Item Retrieval
- Title(参考訳): マルチステージハイブリッドリランキングによる一軸LLM改質
- Authors: Debayan Mukhopadhyay, Utshab Kumar Ghosh, Shubham Chatterjee,
- Abstract要約: 本稿では,汎用8Bパラメータ LLM への単一呼び出しをクエリ再構成に用いることを提案する。
本手法は,初回リコールが不十分なため,Pseudo-Relevance Feedbackがフェールした場合に有効である。
2025 TREC-ToTデータセットの実験により、生クエリは性能が劣る一方、軽量な検索前変換によりリコールが20.61%向上することが示された。
- 参考スコア(独自算出の注目度): 3.976291254896486
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Retrieving known items from vague descriptions, Tip-of-the-Tongue (ToT) retrieval, remains a significant challenge. We propose using a single call to a generic 8B-parameter LLM for query reformulation, bridging the gap between ill-formed ToT queries and specific information needs. This method is particularly effective where standard Pseudo-Relevance Feedback fails due to poor initial recall. Crucially, our LLM is not fine-tuned for ToT or specific domains, demonstrating that gains stem from our prompting strategy rather than model specialization. Rewritten queries feed a multi-stage pipeline: sparse retrieval (BM25), dense/late-interaction reranking (Contriever, E5-large-v2, ColBERTv2), monoT5 cross-encoding, and list-wise reranking (Qwen 2.5 72B). Experiments on 2025 TREC-ToT datasets show that while raw queries yield poor performance, our lightweight pre-retrieval transformation improves Recall by 20.61%. Subsequent reranking improves nDCG@10 by 33.88%, MRR by 29.92%, and MAP@10 by 29.98%, offering a cost-effective intervention that unlocks the potential of downstream rankers. Code and data: https://github.com/debayan1405/TREC-TOT-2025
- Abstract(参考訳): 曖昧な記述から既知の項目を検索し、Tip-of-the-Tongue(ToT)検索は依然として重要な課題である。
そこで本研究では,汎用8Bパラメータ LLM への単一呼び出しをクエリ再構成に使用し,不整形な ToT クエリと特定の情報要求とのギャップを埋めることを提案する。
この方法は、初期リコールが不十分なため、標準的な擬似関連フィードバックが失敗する場合に特に有効である。
重要なことは、当社のLLMはToTや特定のドメインに対して微調整されていないため、モデル特殊化よりもプロンプト戦略に起因していることが証明されている。
再記述されたクエリは、スパース検索(BM25)、密/密/密/密/相互相互作用(Contriever, E5-large-v2, ColBERTv2)、monoT5クロスエンコーディング、リストワイズ再ランク(Qwen 2.5 72B)の多段階パイプラインを提供する。
2025 TREC-ToTデータセットの実験により、生クエリは性能が劣る一方、軽量な検索前変換によりリコールが20.61%向上することが示された。
その後、nDCG@10を33.88%、MRRを29.92%、MAP@10を29.98%改善し、下流階級の可能性を解き放つ費用対効果の高い介入を提供する。
コードとデータ:https://github.com/debayan1405/TREC-TOT-2025
関連論文リスト
- DS@GT at TREC TOT 2025: Bridging Vague Recollection with Fusion Retrieval and Learned Reranking [0.5352699766206809]
TREC Tip-of-Tongue(ToT)タスクに対処する2段階検索システムを開発した。
第1段階では、LLMに基づく検索、スパース(BM25)、高密度(BGE-M3)検索を併用したハイブリッド検索を採用する。
また、ウィキペディアコーパスを24のトピック領域に分割する、トピック対応マルチインデックスの高密度検索についても紹介する。
論文 参考訳(メタデータ) (2026-01-21T23:09:17Z) - Revisiting Feedback Models for HyDE [49.53124785319461]
HyDE は LLM 生成した仮説的回答文書でクエリ表現を豊かにする手法である。
実験の結果,Rocchioなどのフィードバックアルゴリズムを利用して抽出と重み拡張を行う場合,HyDEの有効性は著しく向上することがわかった。
論文 参考訳(メタデータ) (2025-11-24T17:50:18Z) - InsertRank: LLMs can reason over BM25 scores to Improve Listwise Reranking [3.1125398490785217]
InsertRankはLLMベースのリランカで、リランク中のBM25スコアなどの語彙信号を活用して、検索性能をさらに向上する。
Deepseek-R1では、InsertRankはBRIGHTベンチマークで37.5点、R2MEDベンチマークで51.1点を獲得し、以前の手法を上回りました。
論文 参考訳(メタデータ) (2025-06-17T01:04:45Z) - Rank-R1: Enhancing Reasoning in LLM-based Document Rerankers via Reinforcement Learning [76.50690734636477]
ランキングタスクを実行する前にユーザクエリと候補文書の両方を推論する新しいLCMベースのリランカである Rank-R1 を導入する。
TREC DL と BRIGHT データセットを用いた実験により,Ranc-R1 が特に複雑なクエリに対して非常に有効であることが判明した。
論文 参考訳(メタデータ) (2025-03-08T03:14:26Z) - Guiding Retrieval using LLM-based Listwise Rankers [15.3583908068962]
本稿では,リストワイズ設定をサポートする既存適応検索手法の適応性を提案する。
具体的には、提案アルゴリズムは、初期ランキングとフィードバック文書の両方から結果をマージする。
我々は,適応プロセスの最小化によるLLM推論の総数とオーバーヘッドを一定に保ちながら,nDCG@10を最大13.23%改善し,28.02%リコールできることを示した。
論文 参考訳(メタデータ) (2025-01-15T22:23:53Z) - An Early FIRST Reproduction and Improvements to Single-Token Decoding for Fast Listwise Reranking [50.81324768683995]
FIRSTは、学習からランクへの目的を統合し、最初の生成されたトークンのみのロジットを活用する新しいアプローチである。
我々は、FIRSTの評価をTRECディープラーニングデータセット(DL19-22)に拡張し、様々な領域でその堅牢性を検証する。
我々の実験は、単一トークンの高速リランクは、ドメイン外リランクの品質を損なうものではないことを確認した。
論文 参考訳(メタデータ) (2024-11-08T12:08:17Z) - Ranked List Truncation for Large Language Model-based Re-Ranking [53.97064615557883]
そこで我々は,検索したリストを検索することでランク付けを最適化する新しい"retrieve-then-re-rank"視点からランク付けリストトランケーション(RLT)について検討した。
RLTは、可変長候補リストをリランカに送信することで、再ランク効率を向上させることができるため、再ランク付けには不可欠である。
既存の RLT メソッドを,特に新たに登場した大規模言語モデル (LLM) に基づく再ランクの文脈で再現する。
論文 参考訳(メタデータ) (2024-04-28T13:39:33Z) - Sequencing Matters: A Generate-Retrieve-Generate Model for Building
Conversational Agents [9.191944519634111]
Georgetown InfoSense GroupはTREC iKAT 2023の課題を解決するために活動している。
提案手法は, 各カット数, 総合成功率において, nDCG において高い性能を示した。
我々のソリューションは、初期回答にLarge Language Models (LLMs) を用いること、BM25による回答基盤、ロジスティック回帰による通過品質フィルタリング、LLMによる回答生成である。
論文 参考訳(メタデータ) (2023-11-16T02:37:58Z) - Mixed-initiative Query Rewriting in Conversational Passage Retrieval [11.644235288057123]
TREC Conversational Assistance Track (CAsT) 2022の手法と実験について報告する。
本稿では,ユーザとシステム間の混在開始応答に基づいてクエリ書き換えを行う複合開始型クエリ書き換えモジュールを提案する。
TREC CAsT 2021 と TREC CAsT 2022 の2つのデータセットを用いた実験により,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2023-07-17T19:38:40Z) - Large Language Models are Effective Text Rankers with Pairwise Ranking Prompting [65.00288634420812]
Pairwise Ranking Prompting (PRP)は、大規模言語モデル(LLM)の負担を大幅に軽減する手法である。
本研究は,中等級のオープンソースLCMを用いた標準ベンチマークにおいて,最先端のランク付け性能を達成した文献としては初めてである。
論文 参考訳(メタデータ) (2023-06-30T11:32:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。