論文の概要: Adaptive Weighted Loss for Sequential Recommendations on Sparse Domains
- arxiv url: http://arxiv.org/abs/2510.04375v1
- Date: Sun, 05 Oct 2025 21:42:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.614448
- Title: Adaptive Weighted Loss for Sequential Recommendations on Sparse Domains
- Title(参考訳): スパースドメインの逐次勧告に対する適応重み付き損失
- Authors: Akshay Mittal, Vinay Venkatesh, Krishna Kandi, Shalini Sudarshan,
- Abstract要約: 単一の均一な重みは、非常に少ない相互作用を持つドメインでは不十分であり、トレーニング信号は広大な汎用データセットによって容易に希釈される。
本稿では, 包括的理論的基礎と広範な実証検証を備えた動的重み付きロス関数を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The effectiveness of single-model sequential recommendation architectures, while scalable, is often limited when catering to "power users" in sparse or niche domains. Our previous research, PinnerFormerLite, addressed this by using a fixed weighted loss to prioritize specific domains. However, this approach can be sub-optimal, as a single, uniform weight may not be sufficient for domains with very few interactions, where the training signal is easily diluted by the vast, generic dataset. This paper proposes a novel, data-driven approach: a Dynamic Weighted Loss function with comprehensive theoretical foundations and extensive empirical validation. We introduce an adaptive algorithm that adjusts the loss weight for each domain based on its sparsity in the training data, assigning a higher weight to sparser domains and a lower weight to denser ones. This ensures that even rare user interests contribute a meaningful gradient signal, preventing them from being overshadowed. We provide rigorous theoretical analysis including convergence proofs, complexity analysis, and bounds analysis to establish the stability and efficiency of our approach. Our comprehensive empirical validation across four diverse datasets (MovieLens, Amazon Electronics, Yelp Business, LastFM Music) with state-of-the-art baselines (SIGMA, CALRec, SparseEnNet) demonstrates that this dynamic weighting system significantly outperforms all comparison methods, particularly for sparse domains, achieving substantial lifts in key metrics like Recall at 10 and NDCG at 10 while maintaining performance on denser domains and introducing minimal computational overhead.
- Abstract(参考訳): 単一モデルシーケンシャルレコメンデーションアーキテクチャの有効性は、拡張性はあるものの、スパースドメインやニッチドメインの"パワーユーザ"に対処する場合、しばしば制限される。
以前の研究であるPinnerFormerLiteは、特定のドメインを優先順位付けするために固定重み付き損失を使用してこの問題に対処しました。
しかし、このアプローチは準最適であり、単一の均一な重み付けは、非常に少ない相互作用を持つドメインでは不十分であり、トレーニング信号は巨大な汎用データセットによって容易に希釈される。
本稿では, 包括的理論的基礎と広範な実証検証を備えた動的重み付きロス関数を提案する。
本研究では,トレーニングデータ中の疎度に基づいて各領域の損失重みを適応的に調整し,スペーサー領域により高い重みを割り当て,より密度の高い領域に低い重みを割り当てるアルゴリズムを提案する。
これにより、希少なユーザの興味さえも意味のある勾配のシグナルを寄与させ、それらが隠蔽されるのを防ぐことができる。
我々は、収束証明、複雑性解析、境界解析を含む厳密な理論解析を行い、我々のアプローチの安定性と効率性を確立する。
さまざまな4つのデータセット(MovieLens、Amazon Electronics、Yelp Business、LastFM Music)と最先端のベースライン(SIGMA、CALRec、SparseEnNet)の総合的な実証検証によって、この動的重み付けシステムは、特にスパースドメインにおいて、厳密なドメインのパフォーマンスを維持しながら、10のRecallや10のNDCGのような重要なメトリクスの大幅な上昇を実現し、より小さなオーバーヘッドを伴いながら、すべての比較方法よりも大幅に優れています。
関連論文リスト
- Bridging the Synthetic-Real Gap: Supervised Domain Adaptation for Robust Spacecraft 6-DoF Pose Estimation [13.83897333268682]
宇宙船のポース推定は、ランデブー、ドッキング、軌道上のドッキングのような自律的な宇宙活動の基本的な能力である。
既存のドメイン適応アプローチは、この問題を軽減することを目的としているが、ラベル付きターゲットサンプルの少ない数が利用できる場合、しばしば性能が低下する。
本稿では,SPEキーポイント回帰に適したSDA(Supervised Domain Adaptation)フレームワークを提案する。
論文 参考訳(メタデータ) (2025-09-17T08:03:05Z) - Data Mixing Optimization for Supervised Fine-Tuning of Large Language Models [5.626695215498112]
最適化問題としてデータミキシングを枠組み化し,検証損失を最小限に抑える新しい手法を提案する。
提案手法は, 効率的なデータ転送をモデル化し, スケール法則を微調整に活用することにより, 損失をパラメタライズする。
提案アルゴリズムは,全領域にわたる総合的,個人的パフォーマンスに優れることを示す。
論文 参考訳(メタデータ) (2025-08-16T07:28:39Z) - NDCG-Consistent Softmax Approximation with Accelerated Convergence [67.10365329542365]
本稿では,ランキングの指標と直接一致した新たな損失定式化を提案する。
提案したRG損失を高効率な Alternating Least Squares (ALS) 最適化手法と統合する。
実世界のデータセットに対する実証的な評価は、我々のアプローチが同等または上位のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2025-06-11T06:59:17Z) - DISCO Balances the Scales: Adaptive Domain- and Difficulty-Aware Reinforcement Learning on Imbalanced Data [65.09939942413651]
本稿では,グループ間不均衡と2つの重要なイノベーションに対処するGRPOの原理的拡張を提案する。
ドメイン対応報酬スケーリングは、ドメインの頻度に基づいて最適化を再重み付けすることで周波数バイアスに対処する。
難解な報酬のスケーリングは、学習価値を提供する不確実なプロンプトを特定し、優先順位付けするために、プロンプトレベルの自己整合性を活用する。
論文 参考訳(メタデータ) (2025-05-21T03:43:29Z) - Federated Smoothing Proximal Gradient for Quantile Regression with Non-Convex Penalties [3.269165283595478]
IoT(Internet-of-Things)の分散センサーは、大量のスパースデータを生成する。
本稿では, 滑らか化機構をそのビューに統合し, 精度と計算速度を両立させる, 結合型滑らか化近位勾配(G)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-08-10T21:50:19Z) - DoGE: Domain Reweighting with Generalization Estimation [42.32000165235568]
一般化推定(DoGE)を用いたDOmain再重み付けを提案する。
実験では、DoGEがベースモデルの一般化をターゲットデータ混合にどのように改善するかを広範囲に示す。
DoGEはドメイン間の依存関係を効果的に識別することができ、一貫してターゲットドメインにおけるテストの難易度を向上する。
論文 参考訳(メタデータ) (2023-10-23T22:51:58Z) - Doubly Robust Instance-Reweighted Adversarial Training [107.40683655362285]
本稿では,2重のインスタンス再重み付き対向フレームワークを提案する。
KL偏差正規化損失関数の最適化により重みを求める。
提案手法は, 平均ロバスト性能において, 最先端のベースライン法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-08-01T06:16:18Z) - Unifying Synergies between Self-supervised Learning and Dynamic
Computation [53.66628188936682]
SSLとDCのパラダイム間の相互作用に関する新しい視点を提示する。
SSL設定において、スクラッチから高密度かつゲートされたサブネットワークを同時に学習することは可能であることを示す。
密集エンコーダとゲートエンコーダの事前学習における共進化は、良好な精度と効率のトレードオフをもたらす。
論文 参考訳(メタデータ) (2023-01-22T17:12:58Z) - Domain Adaptation Principal Component Analysis: base linear method for
learning with out-of-distribution data [55.41644538483948]
ドメイン適応は現代の機械学習において一般的なパラダイムである。
ドメイン適応主成分分析(DAPCA)という手法を提案する。
DAPCAは、領域適応タスクの解決に有用な線形化データ表現を見つける。
論文 参考訳(メタデータ) (2022-08-28T21:10:56Z) - Revisiting Initialization of Neural Networks [72.24615341588846]
ヘッセン行列のノルムを近似し, 制御することにより, 層間における重みのグローバルな曲率を厳密に推定する。
Word2Vec と MNIST/CIFAR 画像分類タスクの実験により,Hessian ノルムの追跡が診断ツールとして有用であることが確認された。
論文 参考訳(メタデータ) (2020-04-20T18:12:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。