論文の概要: $\text{E}^2\text{Rank}$: Your Text Embedding can Also be an Effective and Efficient Listwise Reranker
- arxiv url: http://arxiv.org/abs/2510.22733v1
- Date: Sun, 26 Oct 2025 16:04:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 15:28:15.344759
- Title: $\text{E}^2\text{Rank}$: Your Text Embedding can Also be an Effective and Efficient Listwise Reranker
- Title(参考訳): $\text{E}^2\text{Rank}$: テキストの埋め込みも有効で効率的なListwise Rerankerになり得る
- Authors: Qi Liu, Yanzhao Zhang, Mingxin Li, Dingkun Long, Pengjun Xie, Jiaxin Mao,
- Abstract要約: 本稿では,単一のテキスト埋め込みモデルを拡張して,高品質な検索とリストワイズを両立させるシンプルな統合フレームワークである$textE2textRank$を提案する。
この結果から,単一の埋め込みモデルにより検索と再ランクを効果的に統一し,計算効率と競合ランキングの精度を両立させることができることが示唆された。
- 参考スコア(独自算出の注目度): 39.61739668491574
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Text embedding models serve as a fundamental component in real-world search applications. By mapping queries and documents into a shared embedding space, they deliver competitive retrieval performance with high efficiency. However, their ranking fidelity remains limited compared to dedicated rerankers, especially recent LLM-based listwise rerankers, which capture fine-grained query-document and document-document interactions. In this paper, we propose a simple yet effective unified framework $\text{E}^2\text{Rank}$, means Efficient Embedding-based Ranking (also means Embedding-to-Rank), which extends a single text embedding model to perform both high-quality retrieval and listwise reranking through continued training under a listwise ranking objective, thereby achieving strong effectiveness with remarkable efficiency. By applying cosine similarity between the query and document embeddings as a unified ranking function, the listwise ranking prompt, which is constructed from the original query and its candidate documents, serves as an enhanced query enriched with signals from the top-K documents, akin to pseudo-relevance feedback (PRF) in traditional retrieval models. This design preserves the efficiency and representational quality of the base embedding model while significantly improving its reranking performance. Empirically, $\textrm{E}^2\text{Rank}$ achieves state-of-the-art results on the BEIR reranking benchmark and demonstrates competitive performance on the reasoning-intensive BRIGHT benchmark, with very low reranking latency. We also show that the ranking training process improves embedding performance on the MTEB benchmark. Our findings indicate that a single embedding model can effectively unify retrieval and reranking, offering both computational efficiency and competitive ranking accuracy.
- Abstract(参考訳): テキスト埋め込みモデルは、現実世界の検索アプリケーションの基本コンポーネントとして機能する。
クエリとドキュメントを共有埋め込み空間にマッピングすることで、競争力のある検索性能を高い効率で提供する。
しかし、それらのランキングの忠実度は、特に最近のLLMベースのリストワイド・リランカと比較しても限定的であり、細かなクエリドキュメントとドキュメントドキュメントのインタラクションをキャプチャする。
本稿では、単文の埋め込みモデルを拡張して、リストワイドなランク付け目的の下での継続的なトレーニングを通じて、高品質な検索とリストワイドのランク付けを両立させ、高い効率で高い効率を達成するための、シンプルな有効性のある統合フレームワーク $\text{E}^2\text{Rank}$ を提案する。
クエリとドキュメント埋め込みのコサイン類似性を統一ランキング関数として適用することにより、リストワイドランキングプロンプトは、従来の検索モデルにおける擬似関連フィードバック(PRF)に似た、上位Kドキュメントからの信号に富んだ拡張クエリとして機能する。
この設計は、ベース埋め込みモデルの効率性と表現的品質を保ちながら、性能の大幅な向上を図っている。
実証的に、$\textrm{E}^2\text{Rank}$はBEIR再ランクベンチマークで最先端の結果を達成し、推論集約的なBRIGHTベンチマークで競合性能を示し、非常に低い再ランクレイテンシを持つ。
また, MTEBベンチマークにおいて, ランキングトレーニングにより埋め込み性能が向上することを示す。
この結果から,単一の埋め込みモデルにより検索と再ランクを効果的に統一し,計算効率と競合ランキングの精度を両立させることができることが示唆された。
関連論文リスト
- Improving Document Retrieval Coherence for Semantically Equivalent Queries [63.97649988164166]
同じ文書を検索する際のモデルのコヒーレンスを改善する訓練DRにおける多段階ランク付け損失のバリエーションを提案する。
この損失は、多様だがセマンティックな等価なクエリのために検索されたトップkランクのドキュメント間の不一致を罰する。
論文 参考訳(メタデータ) (2025-08-11T13:34:59Z) - CoRank: LLM-Based Compact Reranking with Document Features for Scientific Retrieval [30.341167520613197]
第一段階の検索はしばしば科学的領域において最適でないため、関連する文書は下位にランクされる。
我々は、科学検索のためのトレーニング不要でモデルに依存しないフレームワークであるCoRankを提案する。
論文 参考訳(メタデータ) (2025-05-19T22:10:27Z) - Breaking the Lens of the Telescope: Online Relevance Estimation over Large Retrieval Sets [14.494301139974455]
本稿では,オンライン関連度推定という新たな手法を提案する。
オンライン関連度推定は、ランキングプロセスを通して、クエリの関連度推定を継続的に更新する。
TRECベンチマークの手法をハイブリッド検索と適応検索の2つのシナリオで検証する。
論文 参考訳(メタデータ) (2025-04-12T22:05:50Z) - Rank-R1: Enhancing Reasoning in LLM-based Document Rerankers via Reinforcement Learning [76.50690734636477]
ランキングタスクを実行する前にユーザクエリと候補文書の両方を推論する新しいLCMベースのリランカである Rank-R1 を導入する。
TREC DL と BRIGHT データセットを用いた実験により,Ranc-R1 が特に複雑なクエリに対して非常に有効であることが判明した。
論文 参考訳(メタデータ) (2025-03-08T03:14:26Z) - FIRST: Faster Improved Listwise Reranking with Single Token Decoding [56.727761901751194]
まず、第1生成識別子の出力ロジットを活用して、候補のランク付け順序を直接取得する新しいリストワイズLLMリグレードアプローチであるFIRSTを紹介する。
実験結果から、BEIRベンチマークの利得により、FIRSTはロバストなランキング性能を維持しつつ、推論を50%高速化することが示された。
以上の結果から,LLMリランカーはクロスエンコーダに比べて強い蒸留信号を提供できることが示唆された。
論文 参考訳(メタデータ) (2024-06-21T21:27:50Z) - Zero-Shot Listwise Document Reranking with a Large Language Model [58.64141622176841]
本稿では,タスク固有の学習データを用いることなく,言語モデル(LRL)を用いたリスワイズ・リランカを提案する。
3つのTRECウェブサーチデータセットの実験により、LRLは第1段検索結果の再ランク付け時にゼロショットポイントワイズ法より優れるだけでなく、最終段再ランカとしても機能することが示された。
論文 参考訳(メタデータ) (2023-05-03T14:45:34Z) - Long Document Summarization with Top-down and Bottom-up Inference [113.29319668246407]
本稿では、2つの側面の要約モデルを改善するための原則的推論フレームワークを提案する。
我々のフレームワークは、トップレベルが長距離依存性をキャプチャするドキュメントの階層的な潜在構造を前提としています。
本稿では,様々な要約データセットに対して提案手法の有効性を示す。
論文 参考訳(メタデータ) (2022-03-15T01:24:51Z) - CODER: An efficient framework for improving retrieval through
COntextualized Document Embedding Reranking [11.635294568328625]
本稿では,最小計算コストで広範囲の検索モデルの性能を向上させるためのフレームワークを提案する。
ベース密度検索法により抽出された事前計算された文書表現を利用する。
実行時に第一段階のメソッドの上に無視可能な計算オーバーヘッドを発生させ、最先端の高密度検索手法と簡単に組み合わせられるようにする。
論文 参考訳(メタデータ) (2021-12-16T10:25:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。