論文の概要: Advancing Loss Functions in Recommender Systems: A Comparative Study with a Rényi Divergence-Based Solution
- arxiv url: http://arxiv.org/abs/2506.15120v1
- Date: Wed, 18 Jun 2025 03:39:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-19 19:35:51.545415
- Title: Advancing Loss Functions in Recommender Systems: A Comparative Study with a Rényi Divergence-Based Solution
- Title(参考訳): Recommender システムにおける損失関数の適応: Rényi Divergence に基づく解との比較
- Authors: Shengjia Zhang, Jiawei Chen, Changdong Li, Sheng Zhou, Qihao Shi, Yan Feng, Chun Chen, Can Wang,
- Abstract要約: 本研究は,Softmax Loss (SL) とCosine Contrastive Loss (CCL) の包括的解析を行う。
DRO最適化においてR'enyi-divergenceを活用することでSLとCCLを一般化する新しい損失関数DrRLを提案する。
- 参考スコア(独自算出の注目度): 21.82441492074033
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Loss functions play a pivotal role in optimizing recommendation models. Among various loss functions, Softmax Loss (SL) and Cosine Contrastive Loss (CCL) are particularly effective. Their theoretical connections and differences warrant in-depth exploration. This work conducts comprehensive analyses of these losses, yielding significant insights: 1) Common strengths -- both can be viewed as augmentations of traditional losses with Distributional Robust Optimization (DRO), enhancing robustness to distributional shifts; 2) Respective limitations -- stemming from their use of different distribution distance metrics in DRO optimization, SL exhibits high sensitivity to false negative instances, whereas CCL suffers from low data utilization. To address these limitations, this work proposes a new loss function, DrRL, which generalizes SL and CCL by leveraging R\'enyi-divergence in DRO optimization. DrRL incorporates the advantageous structures of both SL and CCL, and can be demonstrated to effectively mitigate their limitations. Extensive experiments have been conducted to validate the superiority of DrRL on both recommendation accuracy and robustness.
- Abstract(参考訳): 損失関数は推奨モデルの最適化において重要な役割を果たす。
損失関数のうち、Softmax Loss (SL) とCosine Contrastive Loss (CCL) は特に有効である。
彼らの理論的なつながりと相違により、深遠な探検が保証される。
この研究は、これらの損失を包括的に分析し、重要な洞察を与えます。
1)共通強み -- どちらも、分散ロバスト最適化(DRO)による従来の損失の増大と見なすことができ、分散シフトに対する堅牢性を高めることができる。
2) DRO最適化における分布距離の異なる測定値の使用から起因して, SLは偽陰性インスタンスに対して高い感度を示す一方, CCLは低データ利用に悩まされている。
これらの制限に対処するため、DRO最適化におけるR'enyi-divergenceを活用することでSLとCCLを一般化する新しい損失関数DrRLを提案する。
DrRLはSLとCCLの両方の有利な構造を取り入れており、それらの制限を効果的に緩和することができる。
推奨精度とロバスト性の両方でDrRLの優位性を検証するため, 広範囲な実験が実施されている。
関連論文リスト
- NDCG-Consistent Softmax Approximation with Accelerated Convergence [67.10365329542365]
本稿では,ランキングの指標と直接一致した新たな損失定式化を提案する。
提案したRG損失を高効率な Alternating Least Squares (ALS) 最適化手法と統合する。
実世界のデータセットに対する実証的な評価は、我々のアプローチが同等または上位のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2025-06-11T06:59:17Z) - DGRO: Enhancing LLM Reasoning via Exploration-Exploitation Control and Reward Variance Management [18.953750405635393]
Decoupled Group Reward Optimization (DGRO) は、大規模言語モデル(LLM)推論のための一般的なRLアルゴリズムである。
我々はDGROが平均96.9%の精度でLogicデータセットの最先端性能を達成することを示し、数学的なベンチマークで強い一般化を示す。
論文 参考訳(メタデータ) (2025-05-19T10:44:49Z) - Generalized Kullback-Leibler Divergence Loss [105.66549870868971]
我々は、クルバック・リブラー(KL)の除算損失がデカップリングカルバック・リブラー(DKL)の除算損失と等価であることを証明した。
DKL損失の非結合構造により,我々は改善すべき2つの領域を特定した。
論文 参考訳(メタデータ) (2025-03-11T04:43:33Z) - PSL: Rethinking and Improving Softmax Loss from Pairwise Perspective for Recommendation [27.320498553323404]
SL(Softmax Loss)は、推奨システム(RS)に広く適用されており、有効性を示している。
この研究は、SLをペアワイズの観点から分析し、2つの重要な制限を明らかにした。
これらの問題に対処するため、この研究はSLをPSL(Pairwise Softmax Loss)と呼ばれる新しい損失関数群に拡張した。
論文 参考訳(メタデータ) (2024-10-31T19:11:26Z) - The Central Role of the Loss Function in Reinforcement Learning [46.72524235085568]
回帰損失関数の違いが値に基づく意思決定アルゴリズムのサンプル効率と適応性に与える影響を実証する。
複数の設定にまたがって、バイナリクロスエントロピー損失を用いたアルゴリズムが、最適ポリシーのコストで1次境界スケーリングを実現することを証明した。
本論文は, 種々の損失関数を持つ意思決定アルゴリズムのガイドとして機能し, 読者により良い損失関数を求め, 任意の意思決定アルゴリズムを改善することを期待する。
論文 参考訳(メタデータ) (2024-09-19T14:10:38Z) - A Thorough Performance Benchmarking on Lightweight Embedding-based Recommender Systems [67.52782366565658]
State-of-the-art recommender system (RS) は、埋め込みベクトルによって符号化される分類的特徴に依存し、結果として非常に大きな埋め込みテーブルとなる。
軽量埋め込み型RSの繁栄にもかかわらず、評価プロトコルには幅広い多様性が見られる。
本研究では, LERSの性能, 効率, クロスタスク転送性について, 徹底的なベンチマークによる検討を行った。
論文 参考訳(メタデータ) (2024-06-25T07:45:00Z) - RecDCL: Dual Contrastive Learning for Recommendation [65.6236784430981]
本稿では、RecDCLという2つのコントラスト学習推薦フレームワークを提案する。
RecDCLでは、FCLの目的は、ユーザとイテムの正のペアに対する冗長なソリューションを排除することである。
BCLの目的は、表現の堅牢性を高めるために出力ベクトルにコントラスト埋め込みを生成するために利用される。
論文 参考訳(メタデータ) (2024-01-28T11:51:09Z) - False Correlation Reduction for Offline Reinforcement Learning [115.11954432080749]
本稿では,実効的かつ理論的に証明可能なアルゴリズムであるオフラインRLに対するfalSe Correlation Reduction (SCORE)を提案する。
SCOREは、標準ベンチマーク(D4RL)において、様々なタスクにおいて3.1倍の高速化でSoTA性能を達成することを実証的に示す。
論文 参考訳(メタデータ) (2021-10-24T15:34:03Z) - An Empirical Study on GANs with Margin Cosine Loss and Relativistic
Discriminator [4.899818550820575]
我々は新しい損失関数、すなわち相対論的Margin Cosine Loss(RMCosGAN)を導入する。
本稿では,RCCosGANの性能と既存の損失関数を比較する。
実験の結果,RCCosGANは既存の画像よりも優れており,画像の品質が著しく向上していることがわかった。
論文 参考訳(メタデータ) (2021-10-21T17:25:47Z) - Fast Distributionally Robust Learning with Variance Reduced Min-Max
Optimization [85.84019017587477]
分散的ロバストな教師付き学習は、現実世界のアプリケーションのための信頼性の高い機械学習システムを構築するための重要なパラダイムとして登場している。
Wasserstein DRSLを解くための既存のアルゴリズムは、複雑なサブプロブレムを解くか、勾配を利用するのに失敗する。
我々はmin-max最適化のレンズを通してwaserstein drslを再検討し、スケーラブルで効率的に実装可能な超勾配アルゴリズムを導出する。
論文 参考訳(メタデータ) (2021-04-27T16:56:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。