論文の概要: Addressing Class-Imbalance Problem in Personalized Ranking
- arxiv url: http://arxiv.org/abs/2005.09272v2
- Date: Tue, 8 Sep 2020 08:47:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-01 14:44:08.556160
- Title: Addressing Class-Imbalance Problem in Personalized Ranking
- Title(参考訳): パーソナライズランキングにおけるクラス不均衡問題への対処
- Authors: Lu Yu, Shichao Pei, Chuxu Zhang, Shangsong Liang, Xiao Bai, Nitesh
Chawla, Xiangliang Zhang
- Abstract要約: ペアランク付けモデルのクラスバランス問題を緩和するために,効率的なエンファンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アン
VINSは、与えられた正の項目よりも大きい負の候補を受け入れる傾向にある確率を拒絶するバイアスサンプリングである。
- 参考スコア(独自算出の注目度): 47.11372043636176
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Pairwise ranking models have been widely used to address recommendation
problems. The basic idea is to learn the rank of users' preferred items through
separating items into \emph{positive} samples if user-item interactions exist,
and \emph{negative} samples otherwise. Due to the limited number of observable
interactions, pairwise ranking models face serious \emph{class-imbalance}
issues. Our theoretical analysis shows that current sampling-based methods
cause the vertex-level imbalance problem, which makes the norm of learned item
embeddings towards infinite after a certain training iterations, and
consequently results in vanishing gradient and affects the model inference
results. We thus propose an efficient \emph{\underline{Vi}tal
\underline{N}egative \underline{S}ampler} (VINS) to alleviate the
class-imbalance issue for pairwise ranking model, in particular for deep
learning models optimized by gradient methods. The core of VINS is a bias
sampler with reject probability that will tend to accept a negative candidate
with a larger degree weight than the given positive item. Evaluation results on
several real datasets demonstrate that the proposed sampling method speeds up
the training procedure 30\% to 50\% for ranking models ranging from shallow to
deep, while maintaining and even improving the quality of ranking results in
top-N item recommendation.
- Abstract(参考訳): ペアワイズランキングモデルはリコメンデーション問題に対処するために広く使われている。
基本的な考え方は、ユーザとイテムの相互作用が存在する場合、アイテムを \emph{ positive} サンプルと、それ以外は \emph{ negative} サンプルに分離することで、ユーザの好みの項目のランクを学習することである。
観測可能な相互作用の数が限られているため、ペアワイズランキングモデルは深刻な \emph{class-imbalance} 問題に直面している。
理論解析により,現在のサンプリングベース手法は頂点レベルの不均衡問題を引き起こし,学習項目のノルムが一定の訓練イテレーションの後に無限に埋込み,結果として勾配が消失し,モデル推論結果に影響を及ぼすことを示した。
そこで我々は,ペアワイズランキングモデル,特に勾配法に最適化された深層学習モデルにおいて,クラス不均衡問題を緩和するために,効率の良い \emph{\underline{vi}tal \underline{n}egative \underline{s}ampler} (vins) を提案する。
VINSの中核は、与えられた正の項目よりも大きい負の候補を受け入れる傾向にある確率を拒絶するバイアスサンプリングである。
いくつかの実データを用いた評価結果から,提案手法は,トップn項目推薦のランキング結果の質を維持しつつ,浅層から深層までのランキングモデルのトレーニング手順を30\%から50\%に高速化することを示した。
関連論文リスト
- Evaluating Performance and Bias of Negative Sampling in Large-Scale Sequential Recommendation Models [0.0]
大規模産業レコメンデーションモデルは、数百万から数十億のオプションを含むカタログから最も関連性の高いアイテムを予測する。
これらのモデルを効率的に訓練するために、関連する項目ごとに巨大なカタログから無関係な項目(負のサンプル)の小さなセットが選択される。
本研究は,大規模シーケンシャルレコメンデーションモデルの負サンプリング法を選択する際のトレードオフの実践的ガイドとして機能する。
論文 参考訳(メタデータ) (2024-10-08T00:23:17Z) - Noisy Correspondence Learning with Self-Reinforcing Errors Mitigation [63.180725016463974]
クロスモーダル検索は、実際は精力的な、十分に整合した大規模データセットに依存している。
我々は、新しい雑音対応学習フレームワーク、textbfSelf-textbfReinforcing textbfErrors textbfMitigation(SREM)を導入する。
論文 参考訳(メタデータ) (2023-12-27T09:03:43Z) - Learning Explicit User Interest Boundary for Recommendation [5.715918678913698]
ユーザ関心境界を表すために、各ユーザに対して補助的なスコア$b_u$を導入します。
提案手法は個人化された意思決定境界を提供し,特別なサンプリング戦略を使わずにトレーニング効率を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2021-11-22T07:26:51Z) - Rethinking InfoNCE: How Many Negative Samples Do You Need? [54.146208195806636]
半定量的理論フレームワークを用いて, InfoNCE に最適化された負のサンプル数について検討した。
トレーニングの有効性関数を最大化する$K$値を用いて,最適負サンプリング比を推定する。
論文 参考訳(メタデータ) (2021-05-27T08:38:29Z) - Scalable Personalised Item Ranking through Parametric Density Estimation [53.44830012414444]
暗黙のフィードバックから学ぶことは、一流問題の難しい性質のために困難です。
ほとんどの従来の方法は、一級問題に対処するためにペアワイズランキングアプローチとネガティブサンプラーを使用します。
本論文では,ポイントワイズと同等の収束速度を実現する学習対ランクアプローチを提案する。
論文 参考訳(メタデータ) (2021-05-11T03:38:16Z) - Doubly Contrastive Deep Clustering [135.7001508427597]
本稿では、サンプルビューとクラスビューの両方でコントラスト損失を構築する新しい二重コントラストディープクラスタリング(DCDC)フレームワークを紹介します。
具体的には、サンプルビューに対して、元のサンプルとその拡張バージョンのクラス分布を正のサンプルペアとして設定する。
クラスビューでは、クラスのサンプル分布から正のペアと負のペアを構築します。
このように、2つのコントラスト損失は、サンプルとクラスレベルでのミニバッチサンプルのクラスタリング結果をうまく制限します。
論文 参考訳(メタデータ) (2021-03-09T15:15:32Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z) - Extreme Classification via Adversarial Softmax Approximation [23.943134990807756]
逆モデルから負のサンプルを描画することで、勾配信号を大幅に強化する簡単な訓練法を提案する。
i) 負のサンプルを$C$で対数的に生成する対数サンプリング機構は,なおも安価な勾配更新をもたらす; (ii) この対数サンプリングは,非一様サンプリングによるバイアスを除去しながら勾配の分散を最小化できるという数学的証明; (iii) 大規模データセットにおける実験結果から,複数の競争基準値に対して,トレーニング時間を大幅に短縮することを示した。
論文 参考訳(メタデータ) (2020-02-15T01:42:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。