論文の概要: Denoising Neural Reranker for Recommender Systems
- arxiv url: http://arxiv.org/abs/2509.18736v2
- Date: Mon, 29 Sep 2025 10:41:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 14:13:47.58993
- Title: Denoising Neural Reranker for Recommender Systems
- Title(参考訳): リコメンダシステムのためのニューラルリランカのDenoising Neural Reranker
- Authors: Wenyu Mao, Shuchang Liu, Hailan Yang, Xiaobei Wang, Xiaoyu Yang, Xu Gao, Xiang Li, Lantao Hu, Han Li, Kun Gai, An Zhang, Xiang Wang,
- Abstract要約: 2段階の枠組みの下での順位変更作業は、自然にレシーバのスコアに対するノイズ低減問題であることを示す。
本稿では,デノナイジング・リランカと慎重に設計したノイズ発生モジュールを関連づける逆方向のフレームワークDNRを導出する。
得られたDNRソリューションは、従来のスコアエラー最小化損失を3つの拡張目標で拡張する。
- 参考スコア(独自算出の注目度): 31.5969774314329
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: For multi-stage recommenders in industry, a user request would first trigger a simple and efficient retriever module that selects and ranks a list of relevant items, then the recommender calls a slower but more sophisticated reranking model that refines the item list exposure to the user. To consistently optimize the two-stage retrieval reranking framework, most efforts have focused on learning reranker-aware retrievers. In contrast, there has been limited work on how to achieve a retriever-aware reranker. In this work, we provide evidence that the retriever scores from the previous stage are informative signals that have been underexplored. Specifically, we first empirically show that the reranking task under the two-stage framework is naturally a noise reduction problem on the retriever scores, and theoretically show the limitations of naive utilization techniques of the retriever scores. Following this notion, we derive an adversarial framework DNR that associates the denoising reranker with a carefully designed noise generation module. The resulting DNR solution extends the conventional score error minimization loss with three augmented objectives, including: 1) a denoising objective that aims to denoise the noisy retriever scores to align with the user feedback; 2) an adversarial retriever score generation objective that improves the exploration in the retriever score space; and 3) a distribution regularization term that aims to align the distribution of generated noisy retriever scores with the real ones. We conduct extensive experiments on three public datasets and an industrial recommender system, together with analytical support, to validate the effectiveness of the proposed DNR.
- Abstract(参考訳): 業界におけるマルチステージレコメンデータにとって、まずユーザ要求は、関連項目のリストを選択してランク付けするシンプルで効率的なレトリバーモジュールをトリガーする。
2段階の検索リグレードフレームワークを一貫して最適化するために、ほとんどの取り組みは再ランカ対応のレトリバーの学習に重点を置いている。
対照的に、レトリバーを意識したリランカーの作り方については、限定的な研究がなされている。
本研究は, 先行段階のレトリバースコアが過小評価されている情報信号であることを示すものである。
具体的には、まず、2段階のフレームワーク下でのリランクタスクが自然にレトリバースコアのノイズ低減問題であることを実証的に示し、理論的にはレトリバースコアのナイーブ利用手法の限界を示す。
この概念に従えば、デノナイズリランカと慎重に設計されたノイズ生成モジュールを関連づける逆方向のフレームワーク DNR を導出する。
結果として得られるDNRソリューションは、以下の3つの拡張目的を含む、従来のスコアエラー最小化損失を拡張します。
1) ノイズの多いレトリバーのスコアを嫌がらせ、ユーザからのフィードバックに合わせることを目的とした装飾的目標。
2 検索者スコア空間における探索を改善する対向的検索者スコア生成目標、及び
3)生成した雑音レトリバーの分布を実値と整合させる分布正規化項。
提案するDNRの有効性を検証するため、3つの公開データセットと産業推薦システムについて広範な実験を行った。
関連論文リスト
- Towards Competitive Search Relevance For Inference-Free Learned Sparse Retrievers [7.976154147999298]
推測のないスパースモデルは 検索の関連という点で はるかに遅れています スパースモデルと密集したサイムズモデルの両方と比較して
性能改善のための2つのアプローチを提案する。
まず,IDFトークンの寄与を抑えるマッチング関数に対するIDF対応ペナルティを提案する。
第2に,シロイヌナズナと疎水性レトリーバーを組み合わせたヘテロジニアスアンサンブル知識蒸留フレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-07T03:46:43Z) - FIRST: Faster Improved Listwise Reranking with Single Token Decoding [56.727761901751194]
まず、第1生成識別子の出力ロジットを活用して、候補のランク付け順序を直接取得する新しいリストワイズLLMリグレードアプローチであるFIRSTを紹介する。
実験結果から、BEIRベンチマークの利得により、FIRSTはロバストなランキング性能を維持しつつ、推論を50%高速化することが示された。
以上の結果から,LLMリランカーはクロスエンコーダに比べて強い蒸留信号を提供できることが示唆された。
論文 参考訳(メタデータ) (2024-06-21T21:27:50Z) - ReFIT: Relevance Feedback from a Reranker during Inference [109.33278799999582]
Retrieve-and-Rerankは、ニューラル情報検索の一般的なフレームワークである。
本稿では,リランカを利用してリコールを改善する手法を提案する。
論文 参考訳(メタデータ) (2023-05-19T15:30:33Z) - Towards Robust Ranker for Text Retrieval [83.15191578888188]
ローダは、デファクトの'retrieval & rerank'パイプラインで必須の役割を果たす。
ローダは、デファクトの'retrieval & rerank'パイプラインで必須の役割を果たす。
論文 参考訳(メタデータ) (2022-06-16T10:27:46Z) - Adversarial Retriever-Ranker for dense text retrieval [51.87158529880056]
本稿では、二重エンコーダレトリバーとクロスエンコーダローダからなるAdversarial Retriever-Ranker(AR2)を提案する。
AR2は、既存の高密度レトリバー法より一貫して大幅に優れている。
これには、R@5から77.9%(+2.1%)、TriviaQA R@5から78.2%(+1.4)、MS-MARCO MRR@10から39.5%(+1.3%)の改善が含まれている。
論文 参考訳(メタデータ) (2021-10-07T16:41:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。