論文の概要: Robust Denoising Neural Reranker for Recommender Systems
- arxiv url: http://arxiv.org/abs/2509.18736v1
- Date: Tue, 23 Sep 2025 07:29:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-24 20:41:27.74633
- Title: Robust Denoising Neural Reranker for Recommender Systems
- Title(参考訳): リコメンダシステムのためのロバストデノイングニューラルリランカ
- Authors: Wenyu Mao, Shuchang Liu, Hailan Yang, Xiaobei Wang, Xiaoyu Yang, Xu Gao, Xiang Li, Lantao Hu, Han Li, Kun Gai, An Zhang, Xiang Wang,
- Abstract要約: 我々は、リランクタスクは基本的に、レトリバースコアからのノイズ低減問題であると主張する。
ノイズ生成モジュールを慎重に設計したデノナイジング・リランカーを関連づける逆向きのフレームワークであるDNRを導出する。
従来のスコアエラー最小化用語は,1) ノイズレトリバーのスコアをユーザからのフィードバックに合わせるため,ノイズレトリバーのスコアを悪用する認知目標,2) ノイズレトリバーのスコアの分布を実際のものと整合させることを目的とした分布正規化用語の3つに拡張する。
- 参考スコア(独自算出の注目度): 31.5969774314329
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: For multi-stage recommenders in industry, a user request would first trigger a simple and efficient retriever module that selects and ranks a list of relevant items, then calls a slower but more sophisticated deep reranking model that refines the item arrangement before exposure to the user. The latter model typically reranks the item list conditioned on the user's history content and the initial ranking from retrievers. Although this two-stage retrieval-ranking framework demonstrates practical effectiveness, the significance of retriever scores from the previous stage has been limitedly explored, which is informative. In this work, we first theoretically analyze the limitations of using retriever scores as the rerankers' input directly and argue that the reranking task is essentially a noise reduction problem from the retriever scores. Following this notion, we derive an adversarial framework, DNR, that associates the denoising reranker with a carefully designed noise generation module. We extend the conventional score error minimization term with three augmented objectives, including: 1) a denoising objective that aims to denoise the noisy retriever scores to align with the user feedback; 2) an adversarial retriever score generation objective that improves the exploration in the retriever score space; and 3) a distribution regularization term that aims to align the distribution of generated noisy retriever scores with the real ones. Extensive experiments are conducted on three public datasets, together with analytical support, validating the effectiveness of the proposed DNR.
- Abstract(参考訳): 業界におけるマルチステージレコメンデータにとって、ユーザ要求はまず、関連項目のリストを選択してランク付けするシンプルで効率的なレトリバーモジュールをトリガーし、その後、より遅いがより洗練されたディープリグレードモデルを呼び出して、ユーザに露出する前にアイテムアレンジを洗練させる。
後者のモデルは、典型的には、ユーザの履歴コンテンツに条件付きアイテムリストと、検索者からの最初のランキングをリランクする。
この2段階の検索格付けフレームワークは実用性を示しているが, 先行段階からの検索スコアの意義は限定的に検討されており, 有益である。
本研究では,まず,リランサーの入力としてレトリバースコアを使用することの限界を理論的に分析し,リランクタスクは基本的にレトリバースコアからのノイズ低減問題であると主張している。
この概念に従うと、デノナイズされたリランカと慎重に設計されたノイズ生成モジュールを関連づける逆向きのフレームワークであるDNRを導出する。
従来のスコアエラー最小化用語を3つの拡張目的に拡張する。
1) ノイズの多いレトリバーのスコアを嫌がらせ、ユーザからのフィードバックに合わせることを目的とした装飾的目標。
2 検索者スコア空間における探索を改善する対向的検索者スコア生成目標、及び
3)生成した雑音レトリバーの分布を実値と整合させる分布正規化項。
提案したDNRの有効性を検証するために,3つの公開データセットと解析的支援を用いて大規模な実験を行った。
関連論文リスト
- Towards Competitive Search Relevance For Inference-Free Learned Sparse Retrievers [7.976154147999298]
推測のないスパースモデルは 検索の関連という点で はるかに遅れています スパースモデルと密集したサイムズモデルの両方と比較して
性能改善のための2つのアプローチを提案する。
まず,IDFトークンの寄与を抑えるマッチング関数に対するIDF対応ペナルティを提案する。
第2に,シロイヌナズナと疎水性レトリーバーを組み合わせたヘテロジニアスアンサンブル知識蒸留フレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-07T03:46:43Z) - FIRST: Faster Improved Listwise Reranking with Single Token Decoding [56.727761901751194]
まず、第1生成識別子の出力ロジットを活用して、候補のランク付け順序を直接取得する新しいリストワイズLLMリグレードアプローチであるFIRSTを紹介する。
実験結果から、BEIRベンチマークの利得により、FIRSTはロバストなランキング性能を維持しつつ、推論を50%高速化することが示された。
以上の結果から,LLMリランカーはクロスエンコーダに比べて強い蒸留信号を提供できることが示唆された。
論文 参考訳(メタデータ) (2024-06-21T21:27:50Z) - ReFIT: Relevance Feedback from a Reranker during Inference [109.33278799999582]
Retrieve-and-Rerankは、ニューラル情報検索の一般的なフレームワークである。
本稿では,リランカを利用してリコールを改善する手法を提案する。
論文 参考訳(メタデータ) (2023-05-19T15:30:33Z) - Towards Robust Ranker for Text Retrieval [83.15191578888188]
ローダは、デファクトの'retrieval & rerank'パイプラインで必須の役割を果たす。
ローダは、デファクトの'retrieval & rerank'パイプラインで必須の役割を果たす。
論文 参考訳(メタデータ) (2022-06-16T10:27:46Z) - Adversarial Retriever-Ranker for dense text retrieval [51.87158529880056]
本稿では、二重エンコーダレトリバーとクロスエンコーダローダからなるAdversarial Retriever-Ranker(AR2)を提案する。
AR2は、既存の高密度レトリバー法より一貫して大幅に優れている。
これには、R@5から77.9%(+2.1%)、TriviaQA R@5から78.2%(+1.4)、MS-MARCO MRR@10から39.5%(+1.3%)の改善が含まれている。
論文 参考訳(メタデータ) (2021-10-07T16:41:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。