論文の概要: RADAR: Recall Augmentation through Deferred Asynchronous Retrieval
- arxiv url: http://arxiv.org/abs/2506.07261v1
- Date: Sun, 08 Jun 2025 19:21:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 16:33:10.739334
- Title: RADAR: Recall Augmentation through Deferred Asynchronous Retrieval
- Title(参考訳): RADAR: 削除された非同期検索によるAugmentationのリコール
- Authors: Amit Jaspal, Qian Dang, Ajantha Ramineni,
- Abstract要約: Deferred Asynchronous Retrieval (RADAR)によるリコール拡張について紹介する。
RADARは、完全な複雑性ランキングモデルを使用して、ユーザに対してはるかに大きな候補セットを事前にランク付けする。
RADARは、検索されたより大きな候補セットとより強力なランキングモデルを効果的に組み合わせることでリコールを大幅に強化する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern large-scale recommender systems employ multi-stage ranking funnel (Retrieval, Pre-ranking, Ranking) to balance engagement and computational constraints (latency, CPU). However, the initial retrieval stage, often relying on efficient but less precise methods like K-Nearest Neighbors (KNN), struggles to effectively surface the most engaging items from billion-scale catalogs, particularly distinguishing highly relevant and engaging candidates from merely relevant ones. We introduce Recall Augmentation through Deferred Asynchronous Retrieval (RADAR), a novel framework that leverages asynchronous, offline computation to pre-rank a significantly larger candidate set for users using the full complexity ranking model. These top-ranked items are stored and utilized as a high-quality retrieval source during online inference, bypassing online retrieval and pre-ranking stages for these candidates. We demonstrate through offline experiments that RADAR significantly boosts recall (2X Recall@200 vs DNN retrieval baseline) by effectively combining a larger retrieved candidate set with a more powerful ranking model. Online A/B tests confirm a +0.8% lift in topline engagement metrics, validating RADAR as a practical and effective method to improve recommendation quality under strict online serving constraints.
- Abstract(参考訳): 現代の大規模リコメンデータシステムは、エンゲージメントと計算制約(レイテンシ、CPU)のバランスをとるために、多段階のランクファンネル(検索、序列、ランク付け)を使用している。
しかしながら、K-Nearest Neighbors (KNN)のような効率的で精度の低い手法を頼りにしている初期の検索段階は、数十億規模のカタログから最も魅力的な項目を効果的に見つけ出すのに苦労している。
完全複雑性ランキングモデルを用いて,非同期のオフライン計算を利用する新しいフレームワークであるDeferred Asynchronous Retrieval (RADAR) によるリコール拡張を導入し,より大規模な候補セットをプリランクする。
これらの上位項目は、オンライン推論において高品質な検索ソースとして格納され、オンライン検索をバイパスし、これらの候補の事前段階をバイパスする。
RAARがリコール(2X Recall@200とDNN検索ベースライン)を大幅に向上することを示すオフライン実験を通じて、より強力なランキングモデルと、より大きな候補セットを効果的に組み合わせた。
オンラインA/Bテストは、厳格なオンラインサービス制約の下でレコメンデーション品質を改善するための実践的で効果的な方法としてRADARを検証することで、トップラインエンゲージメント指標の+0.8%上昇を確認します。
関連論文リスト
- Reinforced Informativeness Optimization for Long-Form Retrieval-Augmented Generation [77.10390725623125]
LFQA(Long-form Question answering)は、大規模言語モデルに固有の課題を提示する。
RioRAGは、強化情報性最適化を通じて長めのRAGを進化させる新しい強化学習フレームワークである。
論文 参考訳(メタデータ) (2025-05-27T07:34:41Z) - Breaking the Lens of the Telescope: Online Relevance Estimation over Large Retrieval Sets [14.494301139974455]
本稿では,オンライン関連度推定という新たな手法を提案する。
オンライン関連度推定は、ランキングプロセスを通して、クエリの関連度推定を継続的に更新する。
TRECベンチマークの手法をハイブリッド検索と適応検索の2つのシナリオで検証する。
論文 参考訳(メタデータ) (2025-04-12T22:05:50Z) - Rank-R1: Enhancing Reasoning in LLM-based Document Rerankers via Reinforcement Learning [76.50690734636477]
ランキングタスクを実行する前にユーザクエリと候補文書の両方を推論する新しいLCMベースのリランカである Rank-R1 を導入する。
TREC DL と BRIGHT データセットを用いた実験により,Ranc-R1 が特に複雑なクエリに対して非常に有効であることが判明した。
論文 参考訳(メタデータ) (2025-03-08T03:14:26Z) - A Thorough Performance Benchmarking on Lightweight Embedding-based Recommender Systems [67.52782366565658]
State-of-the-art recommender system (RS) は、埋め込みベクトルによって符号化される分類的特徴に依存し、結果として非常に大きな埋め込みテーブルとなる。
軽量埋め込み型RSの繁栄にもかかわらず、評価プロトコルには幅広い多様性が見られる。
本研究では, LERSの性能, 効率, クロスタスク転送性について, 徹底的なベンチマークによる検討を行った。
論文 参考訳(メタデータ) (2024-06-25T07:45:00Z) - FIRST: Faster Improved Listwise Reranking with Single Token Decoding [56.727761901751194]
まず、第1生成識別子の出力ロジットを活用して、候補のランク付け順序を直接取得する新しいリストワイズLLMリグレードアプローチであるFIRSTを紹介する。
実験結果から、BEIRベンチマークの利得により、FIRSTはロバストなランキング性能を維持しつつ、推論を50%高速化することが示された。
以上の結果から,LLMリランカーはクロスエンコーダに比べて強い蒸留信号を提供できることが示唆された。
論文 参考訳(メタデータ) (2024-06-21T21:27:50Z) - LIRE: listwise reward enhancement for preference alignment [27.50204023448716]
本稿では、複数の応答のオフライン報酬を合理化されたリストワイズフレームワークに組み込む、勾配に基づく報酬最適化手法を提案する。
LIREは実装が簡単で、最小限のパラメータチューニングを必要とし、ペアワイズパラダイムとシームレスに整合する。
実験の結果,LIREは対話タスクや要約タスクのベンチマークにおいて,既存のメソッドよりも一貫して優れていることがわかった。
論文 参考訳(メタデータ) (2024-05-22T10:21:50Z) - A Reproducibility Study of PLAID [25.86500025007641]
我々はPLAIDと論文から欠落した重要なベースラインを比較した。
ColBERTv2 を BM25 の初期プール上に再ランカとして適用することにより,低レイテンシ環境での効率効率・効率性トレードオフが向上することがわかった。
この制限を克服するために、最近提案された上位文書の隣人を引き出すように、再ランク付けする修正が提案されていることが分かりました。
論文 参考訳(メタデータ) (2024-04-23T12:46:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。