論文の概要: Multi-Margin Loss: Proposal and Application in Recommender Systems
- arxiv url: http://arxiv.org/abs/2405.04614v2
- Date: Sun, 23 Jun 2024 22:05:46 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-26 00:53:00.488484
- Title: Multi-Margin Loss: Proposal and Application in Recommender Systems
- Title(参考訳): マルチマージン損失:レコメンダシステムにおける提案と応用
- Authors: Makbule Gulcin Ozsoy,
- Abstract要約: 協調フィルタリングに基づくディープラーニング技術は、その単純さから人気を取り戻している。
提案されたマルチマージン損失(MML)は、負のサンプルに対して複数のマージンと様々な重みを導入することでこれらの課題に対処する。
MMLは、負のサンプルが少ないベースラインコントラスト損失関数と比較して最大20%の性能改善が達成される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Recommender systems guide users through vast amounts of information by suggesting items based on their predicted preferences. Collaborative filtering-based deep learning techniques have regained popularity due to their simplicity, using only user-item interactions. Typically, these systems consist of three main components: an interaction module, a loss function, and a negative sampling strategy. Initially, researchers focused on enhancing performance by developing complex interaction modules with techniques like multi-layer perceptrons, transformers, or graph neural networks. However, there has been a recent shift toward refining loss functions and negative sampling strategies. This shift has increased interest in contrastive learning, which pulls similar pairs closer while pushing dissimilar ones apart. Contrastive learning involves key practices such as heavy data augmentation, large batch sizes, and hard-negative sampling, but these also bring challenges like high memory demands and under-utilization of some negative samples. The proposed Multi-Margin Loss (MML) addresses these challenges by introducing multiple margins and varying weights for negative samples. MML efficiently utilizes not only the hardest negatives but also other non-trivial negatives, offering a simpler yet effective loss function that outperforms more complex methods, especially when resources are limited. Experiments on two well-known datasets showed MML achieved up to a 20\% performance improvement compared to a baseline contrastive loss function with fewer negative samples.
- Abstract(参考訳): レコメンダシステムは、予測された嗜好に基づいてアイテムを提案することで、大量の情報を通じてユーザーを誘導する。
協調フィルタリングに基づくディープラーニング技術は、ユーザとイテムのインタラクションのみを使用して、シンプルさによって人気を取り戻している。
通常、これらのシステムは3つの主要なコンポーネント(相互作用モジュール、損失関数、負のサンプリング戦略)から構成される。
当初、研究者は多層パーセプトロン、トランスフォーマー、グラフニューラルネットワークといった技術で複雑な相互作用モジュールを開発することでパフォーマンスを向上させることに重点を置いていた。
しかし、近年、損失関数の精細化と負のサンプリング戦略へのシフトが起きている。
このシフトは対照的な学習への関心を高め、類似したペアを近くに引き寄せ、異種を分離する。
対照的な学習には、重いデータ強化、大規模なバッチサイズ、ハードネガティブなサンプリングといった重要なプラクティスがあるが、これらは、高いメモリ要求やいくつかの負のサンプルの未使用といった課題ももたらしている。
提案されたマルチマージン損失(MML)は、負のサンプルに対して複数のマージンと様々な重みを導入することでこれらの課題に対処する。
MMLは、最も難しい負だけでなく、他の非自明な負も効率的に利用し、特に資源が限られている場合に、より複雑で効率的な損失関数を提供する。
2つのよく知られたデータセットの実験により、MMLは、負のサンプルが少ないベースラインのコントラスト損失関数と比較して最大20倍の性能向上を達成した。
関連論文リスト
- SimCE: Simplifying Cross-Entropy Loss for Collaborative Filtering [47.81610130269399]
SSM(Sampred Softmax Cross-Entropy)を提案する。
また,上界を用いてSSMを単純化するアンダーラインSimplified Sampled Softmax underlineCross-underlineEntropy Loss (SimCE)を導入する。
MFとLightGCNの両方のバックボーンを使用して、12のベンチマークデータセットに対する検証を行ったところ、SimCEはBPRとSSMの両方で大幅に優れていた。
論文 参考訳(メタデータ) (2024-06-23T17:24:07Z) - Rethinking Negative Pairs in Code Search [56.23857828689406]
我々は、重み項をInfoNCEに挿入する簡易で効果的なSoft-InfoNCE損失を提案する。
我々は,Soft-InfoNCEが学習したコード表現の分布を制御することと,より正確な相互情報推定の導出に与える影響を分析する。
論文 参考訳(メタデータ) (2023-10-12T06:32:42Z) - Generating Negative Samples for Sequential Recommendation [83.60655196391855]
逐次レコメンデーション(SR)のための負のサンプル(イテム)を生成することを提案する。
アイテムに対する現在のSRモデルの学習されたユーザの好みに基づいて、各タイムステップで負の項目をサンプリングする。
4つの公開データセットの実験は、SRに高品質な負のサンプルを提供することの重要性を検証する。
論文 参考訳(メタデータ) (2022-08-07T05:44:13Z) - C$^{4}$Net: Contextual Compression and Complementary Combination Network
for Salient Object Detection [0.0]
機能結合は、乗算や加算のような他の組み合わせ方法よりもうまく機能することを示す。
また、共同特徴学習は、処理中の情報共有のため、より良い結果をもたらす。
論文 参考訳(メタデータ) (2021-10-22T16:14:10Z) - Multi-Sample based Contrastive Loss for Top-k Recommendation [33.02297142668278]
Contrastive Loss (CL)は、最近より注目を集めている対照的な学習の鍵である。
CL損失関数と同時に複数の正の項目(またはサンプル)を同時に用いた新しいデータ拡張手法を提案する。
論文 参考訳(メタデータ) (2021-09-01T07:32:13Z) - LoOp: Looking for Optimal Hard Negative Embeddings for Deep Metric
Learning [17.571160136568455]
埋め込み空間における最適強陰性(LoOp)を求める新しい手法を提案する。
マイニング法とは違って, 最適硬質負を計算するために, 組込みの組込み間の空間全体を考慮した。
論文 参考訳(メタデータ) (2021-08-20T19:21:33Z) - Rethinking Deep Contrastive Learning with Embedding Memory [58.66613563148031]
ペアワイズ損失関数は広く研究され、dml(deep metric learning)のパフォーマンスを継続的に改善することが示されている。
本稿では,様々な対損失関数の重み付け戦略を体系的に研究する新しい手法を提案し,組重み付けを埋め込みメモリで再考する。
論文 参考訳(メタデータ) (2021-03-25T17:39:34Z) - Contrastive Learning with Hard Negative Samples [80.12117639845678]
我々は, 厳密な陰性サンプルを選択するために, 教師なしサンプリング手法を新たに開発する。
このサンプリングの制限ケースは、各クラスをしっかりとクラスタ化し、可能な限り異なるクラスを遠くにプッシュする表現をもたらす。
提案手法は、複数のモードをまたいだダウンストリーム性能を改善し、実装するコード行数が少なく、計算オーバーヘッドを伴わない。
論文 参考訳(メタデータ) (2020-10-09T14:18:53Z) - Multi-scale Interactive Network for Salient Object Detection [91.43066633305662]
本稿では,隣接レベルからの機能を統合するためのアグリゲート・インタラクション・モジュールを提案する。
より効率的なマルチスケール機能を得るために、各デコーダユニットに自己相互作用モジュールを埋め込む。
5つのベンチマークデータセットによる実験結果から,提案手法は後処理を一切行わず,23の最先端手法に対して良好に動作することが示された。
論文 参考訳(メタデータ) (2020-07-17T15:41:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。