論文の概要: DSL: Understanding and Improving Softmax Recommender Systems with Competition-Aware Scaling
- arxiv url: http://arxiv.org/abs/2602.07206v1
- Date: Fri, 06 Feb 2026 21:32:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:24.505288
- Title: DSL: Understanding and Improving Softmax Recommender Systems with Competition-Aware Scaling
- Title(参考訳): DSL:競争意識のスケーリングによるSoftmaxレコメンダシステムの理解と改善
- Authors: Bucher Sahyouni, Matthew Vowels, Liqun Chen, Simon Hadfield,
- Abstract要約: 暗黙のフィードバックでは、単一の大域温度と一様にサンプリングされた負の均等な処理が脆い訓練につながる。
特定の負のセットを持つユーザ-イム対の最適損失シャープネスは、異なる負の別のものに対して最適か不安定である。
本稿では,サンプル競合自体から効果的なシャープネスを推定するソフトマックスロスについて紹介する。
- 参考スコア(独自算出の注目度): 10.466765832314683
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Softmax Loss (SL) is being increasingly adopted for recommender systems (RS) as it has demonstrated better performance, robustness and fairness. Yet in implicit-feedback, a single global temperature and equal treatment of uniformly sampled negatives can lead to brittle training, because sampled sets may contain varying degrees of relevant or informative competitors. The optimal loss sharpness for a user-item pair with a particular set of negatives, can be suboptimal or destabilising for another with different negatives. We introduce Dual-scale Softmax Loss (DSL), which infers effective sharpness from the sampled competition itself. DSL adds two complementary branches to the log-sum-exp backbone. Firstly it reweights negatives within each training instance using hardness and item--item similarity, secondly it adapts a per-example temperature from the competition intensity over a constructed competitor slate. Together, these components preserve the geometry of SL while reshaping the competition distribution across negatives and across examples. Over several representative benchmarks and backbones, DSL yields substantial gains over strong baselines, with improvements over SL exceeding $10%$ in several settings and averaging $6.22%$ across datasets, metrics, and backbones. Under out-of-distribution (OOD) popularity shift, the gains are larger, with an average of $9.31%$ improvement over SL. We further provide a theoretical, distributionally robust optimisation (DRO) analysis, which demonstrates how DSL reshapes the robust payoff and the KL deviation for ambiguous instances. This helps explain the empirically observed improvements in accuracy and robustness.
- Abstract(参考訳): SL(Softmax Loss)は、より優れたパフォーマンス、堅牢性、公正性を示すため、レコメンデーターシステム(RS)に採用されつつある。
しかし、暗黙のフィードバックでは、単一の大域的な温度と一様にサンプリングされた負の均等な処理が不安定な訓練につながる可能性がある。
特定の負のセットを持つユーザ-イム対の最適損失シャープネスは、異なる負の別のものに対して最適か不安定である。
本稿では,サンプルコンペティション自体から効果的なシャープネスを推定するDual-scale Softmax Loss(DSL)を紹介する。
DSLはlog-sum-expバックボーンに2つの補完ブランチを追加します。
第一に、難易度と項目類似度を用いて各トレーニングインスタンス内の負の重み付けを行い、第二に、構築された競合スレートの競争強度から外周温度を適応させる。
これらの成分は共にSLの幾何学を保存し、負および実例間の競合分布を再構成する。
いくつかの代表的なベンチマークとバックボーンで、DSLは強力なベースラインよりも大幅に向上し、SLよりも10%以上改善され、データセット、メトリクス、バックボーンの平均は6.22%となった。
オフ・オブ・ディストリビューション(OOD)の人気の変化の下では、SLよりも平均して9.31%の値上がりがある。
さらに,不明瞭なインスタンスに対して,DSLがロバストなペイオフとKL偏差をどう評価するかを示す理論的,分布論的にロバストな最適化(DRO)分析を提供する。
これは、経験的に観察された精度と堅牢性の改善を説明するのに役立つ。
関連論文リスト
- VADE: Variance-Aware Dynamic Sampling via Online Sample-Level Difficulty Estimation for Multimodal RL [38.782188833641676]
GRPOやGSPOのようなグループベースのポリシー最適化手法は、マルチモーダルモデルのトレーニングの標準となっている。
グループ内のすべての応答が同じ報酬を受けると、それらは致命的な急激な消滅問題に悩まされる。
textbfVADEは,オンラインサンプルレベルの難易度を用いたサンプリングフレームワークである。
論文 参考訳(メタデータ) (2025-11-24T08:59:54Z) - LLM Routing with Dueling Feedback [49.67815163970033]
ユーザの満足度,モデルの専門性,推論コストのバランスを保ちながら,クエリ毎に最適なモデルを選択するという課題について検討する。
絶対的なスコアではなく、ペアの選好フィードバックから学習することで、ルーティングをコンテキストデュエルの帯域として定式化する。
分類的重み付けを用いた対照的な微調整を用いて,オフラインデータからモデル埋め込みを導出する表現学習手法であるカテゴリーキャリブレーション・ファインタニング(CCFT)を導入する。
論文 参考訳(メタデータ) (2025-10-01T12:52:25Z) - SPIRE: Conditional Personalization for Federated Diffusion Generative Models [7.8583640700306585]
Shared Backbone Personal Identity Representation Embeddings (SPIRE)は、FLで条件付き生成としてクライアント拡散ベースの生成をキャストするフレームワークである。
SPIREは、ネットワークを(i)人口レベルのスコア関数を学習する高容量なグローバルバックボーンと、(ii)ローカルデータ統計を符号化する軽量で学習可能なクライアント埋め込みに分解する。
我々の分析は、クライアントの埋め込みが共有スコアネットワークをパーソナライズするバイアスとしてどのように振舞うかを示唆している。
論文 参考訳(メタデータ) (2025-06-14T01:40:31Z) - Multi-Preference Optimization: Generalizing DPO via Set-Level Contrasts [17.243429150450886]
応答集合全体の最適化のために,$textbfMulti-Preference Optimization (MPO)を提案する。
MPOは偏差に基づく重み付けを採用しており、平均的な報酬から最も逸脱する外れ値の応答を強調している。
理論的には、MPOはクエリ毎のレスポンス数に対して$mathcalOleft(frac1sqrtnright)$でアライメントバイアスを低減する。
論文 参考訳(メタデータ) (2024-12-05T21:50:22Z) - SimCE: Simplifying Cross-Entropy Loss for Collaborative Filtering [47.81610130269399]
SSM(Sampred Softmax Cross-Entropy)を提案する。
また,上界を用いてSSMを単純化するアンダーラインSimplified Sampled Softmax underlineCross-underlineEntropy Loss (SimCE)を導入する。
MFとLightGCNの両方のバックボーンを使用して、12のベンチマークデータセットに対する検証を行ったところ、SimCEはBPRとSSMの両方で大幅に優れていた。
論文 参考訳(メタデータ) (2024-06-23T17:24:07Z) - BSL: Understanding and Improving Softmax Loss for Recommendation [13.10440836605245]
ソフトマックス・ロス (SL) は, 精度は高いが, 堅牢性や公正性も向上する。
本稿では, SL の利点を正と負の両面に拡張する新たな損失関数としてバイラテラル・ソフトマックス・ロス (BSL) を提案する。
BSLは単純で実装が容易で、SLと比較して1行追加のコードしか必要ありません。
論文 参考訳(メタデータ) (2023-12-20T09:46:42Z) - Learning to Re-weight Examples with Optimal Transport for Imbalanced
Classification [74.62203971625173]
不均衡データは、ディープラーニングに基づく分類モデルに課題をもたらす。
不均衡なデータを扱うための最も広く使われているアプローチの1つは、再重み付けである。
本稿では,分布の観点からの最適輸送(OT)に基づく新しい再重み付け手法を提案する。
論文 参考訳(メタデータ) (2022-08-05T01:23:54Z) - Label Distributionally Robust Losses for Multi-class Classification:
Consistency, Robustness and Adaptivity [55.29408396918968]
多クラス分類のためのラベル分布ロバスト(LDR)損失という損失関数群について検討した。
我々の貢献は、多クラス分類のためのLDR損失のトップ$kの一貫性を確立することによって、一貫性と堅牢性の両方を含んでいる。
本稿では,各インスタンスのクラスラベルの雑音度に個別化温度パラメータを自動的に適応させる適応型LDR損失を提案する。
論文 参考訳(メタデータ) (2021-12-30T00:27:30Z) - Accelerated Convergence for Counterfactual Learning to Rank [65.63997193915257]
IPS重み付き勾配を持つSGD手法の収束速度は、IPS重みによる大きなばらつきに悩まされることを示す。
本稿では,従来のIPS重み付け勾配降下法よりも優れた収束性を有する新しい学習アルゴリズムであるCounterSampleを提案する。
我々は、CounterSampleがより早く収束し、理論的な結果と経験的な結果とを補完することを証明する。
論文 参考訳(メタデータ) (2020-05-21T12:53:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。