論文の概要: Breaking the Top-$K$ Barrier: Advancing Top-$K$ Ranking Metrics Optimization in Recommender Systems
- arxiv url: http://arxiv.org/abs/2508.05673v1
- Date: Mon, 04 Aug 2025 17:50:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-11 20:39:05.918834
- Title: Breaking the Top-$K$ Barrier: Advancing Top-$K$ Ranking Metrics Optimization in Recommender Systems
- Title(参考訳): Top-K$ Barrier: Recommender システムにおける Top-K$ Ranking Metrics 最適化の改善
- Authors: Weiqin Yang, Jiawei Chen, Shengjia Zhang, Peng Wu, Yuegang Sun, Yan Feng, Chun Chen, Can Wang,
- Abstract要約: NDCG@$K$ランキングメトリクスは、レコメンデーションパフォーマンスを評価するためのゴールドスタンダードです。
我々は、NDCG@$K$最適化に適した新しいレコメンデーション損失であるSoftmaxLoss@$K$を提案する。
4つの実世界のデータセットと3つのレコメンデーションバックボーンの実験は、SL@$K$が既存の損失を6.03%の顕著な平均改善で上回っていることを示している。
- 参考スコア(独自算出の注目度): 19.923595569086086
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the realm of recommender systems (RS), Top-$K$ ranking metrics such as NDCG@$K$ are the gold standard for evaluating recommendation performance. However, during the training of recommendation models, optimizing NDCG@$K$ poses significant challenges due to its inherent discontinuous nature and the intricate Top-$K$ truncation. Recent efforts to optimize NDCG@$K$ have either overlooked the Top-$K$ truncation or suffered from high computational costs and training instability. To overcome these limitations, we propose SoftmaxLoss@$K$ (SL@$K$), a novel recommendation loss tailored for NDCG@$K$ optimization. Specifically, we integrate the quantile technique to handle Top-$K$ truncation and derive a smooth upper bound for optimizing NDCG@$K$ to address discontinuity. The resulting SL@$K$ loss has several desirable properties, including theoretical guarantees, ease of implementation, computational efficiency, gradient stability, and noise robustness. Extensive experiments on four real-world datasets and three recommendation backbones demonstrate that SL@$K$ outperforms existing losses with a notable average improvement of 6.03%. The code is available at https://github.com/Tiny-Snow/IR-Benchmark.
- Abstract(参考訳): レコメンデーションシステム(RS)の領域では、NDCG@$K$のような上位K$はレコメンデーションパフォーマンスを評価するための金の標準である。
しかしながら、レコメンデーションモデルのトレーニング中、NDCG@$K$の最適化は、固有の不連続性や複雑なTop-$K$の切り詰めのため、重大な課題を提起する。
NDCG@$K$を最適化する最近の取り組みは、Top-$K$トランケーションを見落としているか、高い計算コストとトレーニング不安定に悩まされている。
これらの制限を克服するために、NDCG@$K$最適化に適した新しいレコメンデーション損失であるSoftmaxLoss@$K$(SL@$K$)を提案する。
具体的には、Top-$K$ truncationを扱うために量子的手法を統合し、NDCG@$K$を最適化して不連続性に対処するための滑らかな上限を導出する。
結果として生じるSL@$K$損失は、理論的保証、実装の容易さ、計算効率、勾配安定性、ノイズ堅牢性など、いくつかの望ましい特性を持つ。
4つの実世界のデータセットと3つのレコメンデーションバックボーンに関する大規模な実験は、SL@$K$が既存の損失を6.03%で上回っていることを示している。
コードはhttps://github.com/Tiny-Snow/IR-Benchmarkで公開されている。
関連論文リスト
- Non-stationary Bandit Convex Optimization: A Comprehensive Study [28.086802754034828]
Bandit Convex Optimizationは、シーケンシャルな意思決定問題のクラスである。
非定常環境でこの問題を研究する。
非定常性の標準的な3つの基準の下で、後悔を最小限に抑えることを目指しています。
論文 参考訳(メタデータ) (2025-06-03T15:18:41Z) - Is Best-of-N the Best of Them? Coverage, Scaling, and Optimality in Inference-Time Alignment [54.787826863212146]
推論時間計算は、言語モデルのパフォーマンスをスケールするための強力な軸を提供する。
我々は, (i) 応答品質, (ii) 計算量の観点から, 推論時アライメントアルゴリズムの性能を解析する。
我々は$textttInferenceTimePessimism$を紹介した。これは推論時間計算の故意使用を通じて報酬ハッキングを緩和する新しいアルゴリズムである。
論文 参考訳(メタデータ) (2025-03-27T18:00:08Z) - An Optimistic Algorithm for Online Convex Optimization with Adversarial Constraints [55.2480439325792]
逆制約を伴うオンライン凸最適化(OCO)について検討する。
本稿では,損失関数と制約関数の予測にアルゴリズムがアクセス可能な設定に着目する。
以上の結果から,現在のO(sqrtT) $ regret と $ tildeO(sqrtT) $ cumulative constraint violation の改善が期待できることがわかった。
論文 参考訳(メタデータ) (2024-12-11T03:06:42Z) - Optimal Batched Linear Bandits [9.795531604467406]
本稿では,探索・推定・探索の枠組みを取り入れたバッチ線形バンドイト問題に対するE$4$アルゴリズムを提案する。
探索速度の適切な選択により、E$4$は、$O(loglog T)$バッチのみで有限時間ミニマックス最適後悔を達成する。
探索レートの別の選択で、E$4$は、少なくとも$O(log T)$バッチを必要とするインスタンス依存の後悔境界を達成することを示す。
論文 参考訳(メタデータ) (2024-06-06T14:57:52Z) - Lower-Left Partial AUC: An Effective and Efficient Optimization Metric
for Recommendation [52.45394284415614]
我々は,AUCのように計算効率が良く,Top-Kランキングの指標と強く相関する新しい最適化指標であるLLPAUCを提案する。
LLPAUCはローワーレフト角のROC曲線の下の部分領域のみを考慮し、最適化はトップKに焦点をあてる。
論文 参考訳(メタデータ) (2024-02-29T13:58:33Z) - Optimal Stochastic Non-smooth Non-convex Optimization through Online-to-Non-convex Conversion [46.46038357597395]
本稿では,新しい解析手法を用いて,未知の非平滑な目的を最適化するアルゴリズムを提案する。
決定論的二階スムーズな目的のために、先進的な楽観的なオンライン学習技術を適用することで、新しい$O(delta0.5)All$が最適または最もよく知られた結果の回復を可能にする。
論文 参考訳(メタデータ) (2023-02-07T22:09:20Z) - Large-scale Stochastic Optimization of NDCG Surrogates for Deep Learning
with Provable Convergence [41.20916144991216]
正規化カウント累積ゲイン(英: Normalized Discounted Cumulative Gain)は、情報検索と機械学習におけるランキング指標である。
本稿では,NDCGを最適化する原理的手法を提案する。
我々の知る限りでは、NDCGを証明可能な収束保証で最適化するアルゴリズムが提案されたのはこれが初めてである。
論文 参考訳(メタデータ) (2022-02-24T16:37:07Z) - A Robust Phased Elimination Algorithm for Corruption-Tolerant Gaussian
Process Bandits [118.22458816174144]
そこで本稿では,エポックで動作するロバストな除去型アルゴリズムを提案し,探索と頻繁な切替を併用して,小さなアクションサブセットを選択し,各アクションを複数タイミングで実行する。
我々のアルゴリズムであるGP Robust Phased Elimination (RGP-PE) は、探索とエクスプロイトによる汚職に対するロバストネスのバランスに成功している。
GPバンディット設定におけるロバスト性の最初の実証的研究を行い,アルゴリズムが様々な敵攻撃に対してロバストであることを示す。
論文 参考訳(メタデータ) (2022-02-03T21:19:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。