論文の概要: DS@GT at TREC TOT 2025: Bridging Vague Recollection with Fusion Retrieval and Learned Reranking
- arxiv url: http://arxiv.org/abs/2601.15518v1
- Date: Wed, 21 Jan 2026 23:09:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-23 21:37:20.441534
- Title: DS@GT at TREC TOT 2025: Bridging Vague Recollection with Fusion Retrieval and Learned Reranking
- Title(参考訳): DS@GT at TREC TOT 2025: Bridging Vague Recollection with Fusion Retrieval and Learned Re rank
- Authors: Wenxin Zhou, Ritesh Mehta, Anthony Miyaguchi,
- Abstract要約: TREC Tip-of-Tongue(ToT)タスクに対処する2段階検索システムを開発した。
第1段階では、LLMに基づく検索、スパース(BM25)、高密度(BGE-M3)検索を併用したハイブリッド検索を採用する。
また、ウィキペディアコーパスを24のトピック領域に分割する、トピック対応マルチインデックスの高密度検索についても紹介する。
- 参考スコア(独自算出の注目度): 0.5352699766206809
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We develop a two-stage retrieval system that combines multiple complementary retrieval methods with a learned reranker and LLM-based reranking, to address the TREC Tip-of-the-Tongue (ToT) task. In the first stage, we employ hybrid retrieval that merges LLM-based retrieval, sparse (BM25), and dense (BGE-M3) retrieval methods. We also introduce topic-aware multi-index dense retrieval that partitions the Wikipedia corpus into 24 topical domains. In the second stage, we evaluate both a trained LambdaMART reranker and LLM-based reranking. To support model training, we generate 5000 synthetic ToT queries using LLMs. Our best system achieves recall of 0.66 and NDCG@1000 of 0.41 on the test set by combining hybrid retrieval with Gemini-2.5-flash reranking, demonstrating the effectiveness of fusion retrieval.
- Abstract(参考訳): TREC Tip-of-Tongue(ToT)タスクに対処するために,複数の補完的検索手法と学習された再ランカとLLMに基づく再ランクを組み合わせた2段階検索システムを開発した。
第1段階では, LLMに基づく検索, スパース (BM25) と高密度 (BGE-M3) 検索を併用したハイブリッド検索を用いる。
また、ウィキペディアコーパスを24のトピック領域に分割する、トピック対応マルチインデックスの高密度検索についても紹介する。
第2段階では、トレーニング済みのLambdaMARTリランカとLLMベースのリランクの両方を評価した。
モデル学習を支援するために,LLMを用いて5000の合成ToTクエリを生成する。
本システムでは,ハイブリッド検索とGemini-2.5-flashリグレードを組み合わせることで,0.41の0.66とNDCG@1000のリコールを実現し,融合検索の有効性を示した。
関連論文リスト
- Rethinking On-policy Optimization for Query Augmentation [49.87723664806526]
本稿では,様々なベンチマークにおいて,プロンプトベースとRLベースのクエリ拡張の最初の体系的比較を示す。
そこで我々は,検索性能を最大化する擬似文書の生成を学習する,新しいハイブリッド手法 On-policy Pseudo-document Query Expansion (OPQE) を提案する。
論文 参考訳(メタデータ) (2025-10-20T04:16:28Z) - Transformer Tafsir at QIAS 2025 Shared Task: Hybrid Retrieval-Augmented Generation for Islamic Knowledge Question Answering [4.3834796470965385]
本稿では,イスラム知識の理解と推論に関するQIAS 2025の共通課題について述べる。
本研究では,大言語モデル(LLM)の性能向上のために,スパース法と高密度検索法を組み合わせたハイブリッド検索拡張生成(RAG)システムを開発した。
我々の3段階パイプラインは、初期検索にBM25、セマンティックマッチングに密着した埋め込み検索モデル、正確なコンテンツ検索にクロスエンコーダが組み込まれている。
論文 参考訳(メタデータ) (2025-09-28T10:27:08Z) - InsertRank: LLMs can reason over BM25 scores to Improve Listwise Reranking [3.1125398490785217]
InsertRankはLLMベースのリランカで、リランク中のBM25スコアなどの語彙信号を活用して、検索性能をさらに向上する。
Deepseek-R1では、InsertRankはBRIGHTベンチマークで37.5点、R2MEDベンチマークで51.1点を獲得し、以前の手法を上回りました。
論文 参考訳(メタデータ) (2025-06-17T01:04:45Z) - Exp4Fuse: A Rank Fusion Framework for Enhanced Sparse Retrieval using Large Language Model-based Query Expansion [0.0]
大規模言語モデル(LLM)は、クエリ拡張のための仮説文書を生成する可能性を示している。
スパースレトリバーの性能を向上させる新しい融合ランキングフレームワークExp4Fuseを導入する。
論文 参考訳(メタデータ) (2025-06-05T08:44:34Z) - Iterative Self-Incentivization Empowers Large Language Models as Agentic Searchers [74.17516978246152]
大規模言語モデル(LLM)は、従来の手法を進化させるために情報検索に広く統合されている。
エージェント検索フレームワークであるEXSEARCHを提案する。
4つの知識集約ベンチマークの実験では、EXSEARCHはベースラインを大幅に上回っている。
論文 参考訳(メタデータ) (2025-05-26T15:27:55Z) - PromptReps: Prompting Large Language Models to Generate Dense and Sparse Representations for Zero-Shot Document Retrieval [76.50690734636477]
本稿では,PmptRepsを提案する。このPmptRepsは,トレーニングを必要とせず,コーパス全体から検索できる機能である。
検索システムは、高密度テキスト埋め込みとスパースバッグ・オブ・ワード表現の両方を利用する。
論文 参考訳(メタデータ) (2024-04-29T04:51:30Z) - Sequencing Matters: A Generate-Retrieve-Generate Model for Building
Conversational Agents [9.191944519634111]
Georgetown InfoSense GroupはTREC iKAT 2023の課題を解決するために活動している。
提案手法は, 各カット数, 総合成功率において, nDCG において高い性能を示した。
我々のソリューションは、初期回答にLarge Language Models (LLMs) を用いること、BM25による回答基盤、ロジスティック回帰による通過品質フィルタリング、LLMによる回答生成である。
論文 参考訳(メタデータ) (2023-11-16T02:37:58Z) - DQ-LoRe: Dual Queries with Low Rank Approximation Re-ranking for
In-Context Learning [66.85379279041128]
そこで本研究では,Dual Queries と Low-rank approximation Re- rank を利用して,文脈内学習のための例を自動選択するフレームワークを提案する。
DQ-LoRe は GPT-4 の自動選択において最先端の手法よりも優れ、92.5% から94.2% まで性能が向上した。
論文 参考訳(メタデータ) (2023-10-04T16:44:37Z) - Mixed-initiative Query Rewriting in Conversational Passage Retrieval [11.644235288057123]
TREC Conversational Assistance Track (CAsT) 2022の手法と実験について報告する。
本稿では,ユーザとシステム間の混在開始応答に基づいてクエリ書き換えを行う複合開始型クエリ書き換えモジュールを提案する。
TREC CAsT 2021 と TREC CAsT 2022 の2つのデータセットを用いた実験により,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2023-07-17T19:38:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。