論文の概要: Rank-K: Test-Time Reasoning for Listwise Reranking
- arxiv url: http://arxiv.org/abs/2505.14432v1
- Date: Tue, 20 May 2025 14:39:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-21 14:49:53.367209
- Title: Rank-K: Test-Time Reasoning for Listwise Reranking
- Title(参考訳): Rank-K: Listwise Re rank のテスト時間推論
- Authors: Eugene Yang, Andrew Yates, Kathryn Ricci, Orion Weller, Vivek Chari, Benjamin Van Durme, Dawn Lawrie,
- Abstract要約: 問合せ時の推論言語モデルの推論能力を活用するリストワイズ・パス・リグレード・モデルである Rank-K を導入する。
Rank-Kは、最先端のリストリランカである RankZephyr よりも検索効率を23%向上することを示す。
Rank-Kは本質的に多言語モデルであるため、単言語検索と同様に、異なる言語でのクエリに基づくパスを効果的にランク付けできることが判明した。
- 参考スコア(独自算出の注目度): 43.19078181671147
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Retrieve-and-rerank is a popular retrieval pipeline because of its ability to make slow but effective rerankers efficient enough at query time by reducing the number of comparisons. Recent works in neural rerankers take advantage of large language models for their capability in reasoning between queries and passages and have achieved state-of-the-art retrieval effectiveness. However, such rerankers are resource-intensive, even after heavy optimization. In this work, we introduce Rank-K, a listwise passage reranking model that leverages the reasoning capability of the reasoning language model at query time that provides test time scalability to serve hard queries. We show that Rank-K improves retrieval effectiveness by 23\% over the RankZephyr, the state-of-the-art listwise reranker, when reranking a BM25 initial ranked list and 19\% when reranking strong retrieval results by SPLADE-v3. Since Rank-K is inherently a multilingual model, we found that it ranks passages based on queries in different languages as effectively as it does in monolingual retrieval.
- Abstract(参考訳): Retrieve-and-Rerankは、クエリ時に比較回数を減らすことで、遅いが効果的なリランカーを十分に効率的にする能力があるため、人気のある検索パイプラインである。
ニューラルリランカの最近の研究は、クエリとパス間の推論能力に大きな言語モデルを活用し、最先端の検索効率を実現している。
しかし、そのようなリランカーは、過度に最適化された後もリソース集約である。
本稿では,クエリ時の推論言語モデルの推論能力を活用して,厳密なクエリを提供するためのテスト時間スケーラビリティを提供する,リストワイズパスリグレードモデルである Rank-K を紹介する。
Rank-K は BM25 の初期ランクリストのランク付け時に RankZephyr よりも 23 % 向上し,SPLADE-v3 による強い検索結果のランク付けでは 19 % 向上することを示した。
Rank-Kは本質的に多言語モデルであるため、単言語検索と同様に、異なる言語でのクエリに基づくパスを効果的にランク付けできることが判明した。
関連論文リスト
- JudgeRank: Leveraging Large Language Models for Reasoning-Intensive Reranking [81.88787401178378]
本稿では,文書関連性を評価する際に,人間の認知過程をエミュレートする新しいエージェント・リランカであるJiceRankを紹介する。
我々は,推論集約型BRIGHTベンチマークを用いて判定Rankを評価し,第1段階の検索手法よりも性能が大幅に向上したことを示す。
さらに、JiceRankは、人気の高いBEIRベンチマークの細調整された最先端リランカと同等に動作し、ゼロショットの一般化能力を検証している。
論文 参考訳(メタデータ) (2024-10-31T18:43:12Z) - You Only Use Reactive Attention Slice For Long Context Retrieval [33.712515776334016]
LLM(Large Language Models)のより長いコンテキストのサポートは、LLMを前進させる有望な方向である。
注意に基づく検索手法YOURA(reactive Attention slice)を提案する。
提案手法は,長文クエリに対して最大30%のvLLM推論スループットを向上する。
論文 参考訳(メタデータ) (2024-09-03T15:30:57Z) - FIRST: Faster Improved Listwise Reranking with Single Token Decoding [56.727761901751194]
まず、第1生成識別子の出力ロジットを活用して、候補のランク付け順序を直接取得する新しいリストワイズLLMリグレードアプローチであるFIRSTを紹介する。
実験結果から、BEIRベンチマークの利得により、FIRSTはロバストなランキング性能を維持しつつ、推論を50%高速化することが示された。
以上の結果から,LLMリランカーはクロスエンコーダに比べて強い蒸留信号を提供できることが示唆された。
論文 参考訳(メタデータ) (2024-06-21T21:27:50Z) - ReFIT: Relevance Feedback from a Reranker during Inference [109.33278799999582]
Retrieve-and-Rerankは、ニューラル情報検索の一般的なフレームワークである。
本稿では,リランカを利用してリコールを改善する手法を提案する。
論文 参考訳(メタデータ) (2023-05-19T15:30:33Z) - Zero-Shot Listwise Document Reranking with a Large Language Model [58.64141622176841]
本稿では,タスク固有の学習データを用いることなく,言語モデル(LRL)を用いたリスワイズ・リランカを提案する。
3つのTRECウェブサーチデータセットの実験により、LRLは第1段検索結果の再ランク付け時にゼロショットポイントワイズ法より優れるだけでなく、最終段再ランカとしても機能することが示された。
論文 参考訳(メタデータ) (2023-05-03T14:45:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。