論文の概要: Discrete Scale-invariant Metric Learning for Efficient Collaborative Filtering
- arxiv url: http://arxiv.org/abs/2506.09898v1
- Date: Wed, 11 Jun 2025 16:13:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 06:35:03.123594
- Title: Discrete Scale-invariant Metric Learning for Efficient Collaborative Filtering
- Title(参考訳): 離散スケール不変距離学習による効率的な協調フィルタリング
- Authors: Yan Zhang, Li Deng, Lixin Duan, Sami Azam,
- Abstract要約: 現在の計量学習法は, 負の項目を対応するユーザから遠ざけ, 正の項目を絶対的幾何学的距離マージンで切り離すことを目的としている。
本稿では,ユーザとアイテムに二項制約を加えることで,離散スケール不変距離学習(DSIML)という新しい手法を提案する。
ベンチマークデータを用いた実験により,提案手法は,推薦システムにおいて,競合的メトリック学習やハッシュベースラインよりも優れていることが示された。
- 参考スコア(独自算出の注目度): 16.608428889271202
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Metric learning has attracted extensive interest for its ability to provide personalized recommendations based on the importance of observed user-item interactions. Current metric learning methods aim to push negative items away from the corresponding users and positive items by an absolute geometrical distance margin. However, items may come from imbalanced categories with different intra-class variations. Thus, the absolute distance margin may not be ideal for estimating the difference between user preferences over imbalanced items. To this end, we propose a new method, named discrete scale-invariant metric learning (DSIML), by adding binary constraints to users and items, which maps users and items into binary codes of a shared Hamming subspace to speed up the online recommendation. Specifically, we firstly propose a scale-invariant margin based on angles at the negative item points in the shared Hamming subspace. Then, we derive a scale-invariant triple hinge loss based on the margin. To capture more preference difference information, we integrate a pairwise ranking loss into the scale-invariant loss in the proposed model. Due to the difficulty of directly optimizing the mixed integer optimization problem formulated with \textit{log-sum-exp} functions, we seek to optimize its variational quadratic upper bound and learn hash codes with an alternating optimization strategy. Experiments on benchmark datasets clearly show that our proposed method is superior to competitive metric learning and hashing-based baselines for recommender systems. The implementation code is available at https://github.com/AnonyFeb/dsml.
- Abstract(参考訳): メトリクス学習は、観察されたユーザとイテムの相互作用の重要性に基づいて、パーソナライズされたレコメンデーションを提供する能力に対して、幅広い関心を集めている。
現在の計量学習法は, 負の項目を対応するユーザから遠ざけ, 正の項目を絶対的幾何学的距離マージンで切り離すことを目的としている。
しかし、アイテムは、クラス内で異なるバリエーションを持つ不均衡なカテゴリから得ることができる。
したがって、絶対距離マージンは、不均衡なアイテムに対するユーザの好みの違いを推定するのに理想的ではない。
そこで本稿では,ユーザとアイテムに二進制約を加えることで,ユーザとアイテムを共有ハミングサブスペースのバイナリコードにマッピングすることで,オンラインレコメンデーションを高速化する,離散スケール不変距離学習(DSIML)という手法を提案する。
具体的には、まず、共有ハミング部分空間における負の項目点の角度に基づくスケール不変マージンを提案する。
そして,そのマージンに基づいて,スケール不変のトリプルヒンジ損失を導出する。
より好みの差分情報を取得するために,提案モデルにおけるスケール不変の損失にペアワイズランキングの損失を組み込む。
混合整数最適化問題を \textit{log-sum-exp} 関数で直接最適化することの難しさから,その変分二次上界を最適化し,交互に最適化戦略でハッシュ符号を学習することを目指す。
ベンチマークデータを用いた実験により,提案手法は,推薦システムにおいて,競合的メトリック学習やハッシュベースラインよりも優れていることが示された。
実装コードはhttps://github.com/AnonyFeb/dsml.comで公開されている。
関連論文リスト
- Unified Gradient-Based Machine Unlearning with Remain Geometry Enhancement [29.675650285351768]
深層ニューラルネットワークのプライバシーと信頼性を高めるために、機械学習(MU)が登場した。
近似MUは大規模モデルの実用的手法である。
本稿では,最新の学習方向を暗黙的に近似する高速スローパラメータ更新手法を提案する。
論文 参考訳(メタデータ) (2024-09-29T15:17:33Z) - Geometric-Averaged Preference Optimization for Soft Preference Labels [78.2746007085333]
LLMを人間の嗜好と整合させる多くのアルゴリズムは、人間の嗜好は二進的かつ決定論的であると仮定する。
本研究では,分散ソフトな選好ラベルを導入し,損失関数におけるLLM出力確率の重み付き幾何平均を用いて直接選好最適化(DPO)を改善する。
論文 参考訳(メタデータ) (2024-09-10T17:54:28Z) - Hyperspherical Classification with Dynamic Label-to-Prototype Assignment [5.978350039412277]
トレーニング中に各プロトタイプに割り当てられたカテゴリを最適化する,シンプルで効果的な手法を提案する。
この最適化は、勾配降下とバイパルチドマッチングの逐次組み合わせを用いて解決する。
CIFAR-100では1.22%の精度で、ImageNet-200では2.15%の精度で競合他社よりも優れています。
論文 参考訳(メタデータ) (2024-03-25T17:01:34Z) - Revisiting Evaluation Metrics for Semantic Segmentation: Optimization
and Evaluation of Fine-grained Intersection over Union [113.20223082664681]
そこで本研究では,mIoUsの微細化と,それに対応する最悪の指標を提案する。
これらのきめ細かいメトリクスは、大きなオブジェクトに対するバイアスの低減、よりリッチな統計情報、モデルとデータセット監査に関する貴重な洞察を提供する。
ベンチマークでは,1つの測定値に基づかないことの必要性を強調し,微細なmIoUsが大きな物体への偏りを減少させることを確認した。
論文 参考訳(メタデータ) (2023-10-30T03:45:15Z) - Learning by Sorting: Self-supervised Learning with Group Ordering
Constraints [75.89238437237445]
本稿では,対照学習目標である群順序制約(GroCo)の新たなバリエーションを提案する。
正の対と負の対の距離をソートし、正の対が負の対よりも多くの距離を持つかに基づいてそれぞれの損失を計算するという考え方を利用しており、したがって正しく順序付けされていない。
各種自己教師付き学習ベンチマークの定式化について検討し、バニラのコントラスト学習と比較して結果が向上するだけでなく、k-NNの性能において、線形探索や性能向上において同等の手法と競合する性能を示すことを示す。
論文 参考訳(メタデータ) (2023-01-05T11:17:55Z) - Sample-Efficient Personalization: Modeling User Parameters as Low Rank
Plus Sparse Components [30.32486162748558]
個人ユーザ/ドメイン/エンタプライズに対する機械学習(ML)予測のパーソナライズは,実践的なレコメンデーションシステムにおいて重要である。
ネットワーク重みを低ランクおよびスパース成分の和としてモデル化するメタラーニング方式を提案する。
AMHT-LRSは、ほぼ最適なサンプル複雑さで効率よく問題を解く。
論文 参考訳(メタデータ) (2022-10-07T12:50:34Z) - Adaptive Sampling for Heterogeneous Rank Aggregation from Noisy Pairwise
Comparisons [85.5955376526419]
ランキングアグリゲーション問題では、各項目を比較する際に、様々な精度レベルが示される。
本稿では,ノイズのあるペアワイズ比較によってアイテムのランクを推定する,除去に基づくアクティブサンプリング戦略を提案する。
提案アルゴリズムは,商品の真のランキングを高い確率で返却できることを示す。
論文 参考訳(メタデータ) (2021-10-08T13:51:55Z) - Probabilistic Metric Learning with Adaptive Margin for Top-K
Recommendation [40.80017379274105]
いくつかの新しい側面を持つ距離ベースレコメンデーションモデルを開発する。
提案モデルは、Top-Kレコメンデーションのrecall@Kの点で、最高の既存のモデルを4-22%上回る。
論文 参考訳(メタデータ) (2021-01-13T03:11:04Z) - Attentional-Biased Stochastic Gradient Descent [74.49926199036481]
深層学習におけるデータ不均衡やラベルノイズ問題に対処するための証明可能な手法(ABSGD)を提案する。
本手法は運動量SGDの簡易な修正であり,各試料に個別の重み付けを行う。
ABSGDは追加コストなしで他の堅牢な損失と組み合わせられるほど柔軟である。
論文 参考訳(メタデータ) (2020-12-13T03:41:52Z) - Addressing Class-Imbalance Problem in Personalized Ranking [47.11372043636176]
ペアランク付けモデルのクラスバランス問題を緩和するために,効率的なエンファンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アン
VINSは、与えられた正の項目よりも大きい負の候補を受け入れる傾向にある確率を拒絶するバイアスサンプリングである。
論文 参考訳(メタデータ) (2020-05-19T08:11:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。