論文の概要: Recommendations from Sparse Comparison Data: Provably Fast Convergence for Nonconvex Matrix Factorization
- arxiv url: http://arxiv.org/abs/2502.20033v1
- Date: Thu, 27 Feb 2025 12:17:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-28 14:56:34.380464
- Title: Recommendations from Sparse Comparison Data: Provably Fast Convergence for Nonconvex Matrix Factorization
- Title(参考訳): スパース比較データからの提言:非凸行列分解における高速収束の可能性
- Authors: Suryanarayana Sankagiri, Jalal Etesami, Matthias Grossglauser,
- Abstract要約: 本稿では,個別に評価するのではなく,各項目のペアを比較してフィードバックを提供するリコメンデータシステムにおいて,新たな学習問題を理論的に分析する。
- 参考スコア(独自算出の注目度): 12.006706388840934
- License:
- Abstract: This paper provides a theoretical analysis of a new learning problem for recommender systems where users provide feedback by comparing pairs of items instead of rating them individually. We assume that comparisons stem from latent user and item features, which reduces the task of predicting preferences to learning these features from comparison data. Similar to the classical matrix factorization problem, the main challenge in this learning task is that the resulting loss function is nonconvex. Our analysis shows that the loss function exhibits (restricted) strong convexity near the true solution, which ensures gradient-based methods converge exponentially, given an appropriate warm start. Importantly, this result holds in a sparse data regime, where each user compares only a few pairs of items. Our main technical contribution is to extend certain concentration inequalities commonly used in matrix completion to our model. Our work demonstrates that learning personalized recommendations from comparison data is computationally and statistically efficient.
- Abstract(参考訳): 本稿では,個別に評価するのではなく,各項目のペアを比較してフィードバックを提供するリコメンデータシステムにおいて,新たな学習問題を理論的に分析する。
比較データからこれらの特徴を学習する際の嗜好を予測するタスクを削減できる,潜在ユーザ特徴とアイテム特徴に起因していると仮定する。
古典行列分解問題と同様に、この学習課題の主な課題は損失関数が非凸であることである。
解析の結果、損失関数は真の解の近傍で(制限された)強い凸性を示し、適切な温暖開始を条件に勾配法が指数関数的に収束することを保証している。
重要なのは、この結果がスパースなデータ構造を保ち、各ユーザがわずか数組のアイテムを比較することだ。
我々の主な技術的貢献は、行列補完によく使われる特定の濃度不等式をモデルに拡張することである。
我々の研究は、比較データからパーソナライズされたレコメンデーションを学習することが、計算的かつ統計的に効率的であることを実証している。
関連論文リスト
- AnyLoss: Transforming Classification Metrics into Loss Functions [21.34290540936501]
評価指標は、バイナリ分類タスクにおけるモデルの性能を評価するために使用することができる。
ほとんどのメトリクスは、非微分可能形式の混乱行列から派生しており、直接最適化できる微分可能損失関数を生成することは困難である。
本稿では,任意の混乱行列に基づく計量を,最適化プロセスで利用可能な損失関数 textitAnyLoss に変換する汎用的アプローチを提案する。
論文 参考訳(メタデータ) (2024-05-23T16:14:16Z) - Data-driven Prior Learning for Bayesian Optimisation [5.199765487172328]
PLeBOと先行転送は少ない評価で良好な入力が得られることを示す。
学習先を検証し,伝達学習手法の広さと比較する。
PLeBOと先行転送は少ない評価で良好な入力が得られることを示す。
論文 参考訳(メタデータ) (2023-11-24T18:37:52Z) - Learning Unnormalized Statistical Models via Compositional Optimization [73.30514599338407]
実データと人工雑音のロジスティックな損失として目的を定式化することにより, ノイズコントラスト推定(NCE)を提案する。
本稿では,非正規化モデルの負の対数類似度を最適化するための直接的アプローチについて検討する。
論文 参考訳(メタデータ) (2023-06-13T01:18:16Z) - Learning by Sorting: Self-supervised Learning with Group Ordering
Constraints [75.89238437237445]
本稿では,対照学習目標である群順序制約(GroCo)の新たなバリエーションを提案する。
正の対と負の対の距離をソートし、正の対が負の対よりも多くの距離を持つかに基づいてそれぞれの損失を計算するという考え方を利用しており、したがって正しく順序付けされていない。
各種自己教師付き学習ベンチマークの定式化について検討し、バニラのコントラスト学習と比較して結果が向上するだけでなく、k-NNの性能において、線形探索や性能向上において同等の手法と競合する性能を示すことを示す。
論文 参考訳(メタデータ) (2023-01-05T11:17:55Z) - On the Benefits of Large Learning Rates for Kernel Methods [110.03020563291788]
本稿では,カーネル手法のコンテキストにおいて,現象を正確に特徴付けることができることを示す。
分離可能なヒルベルト空間における2次対象の最小化を考慮し、早期停止の場合、学習速度の選択が得られた解のスペクトル分解に影響を及ぼすことを示す。
論文 参考訳(メタデータ) (2022-02-28T13:01:04Z) - Relational Surrogate Loss Learning [41.61184221367546]
本稿では、評価指標を近似するためにディープニューラルネットワークを用いる代理損失学習を再考する。
本稿では,サロゲート損失と測定値の関係を直接的に維持することを示す。
私たちの方法は最適化がずっと簡単で、大幅な効率と性能向上を享受しています。
論文 参考訳(メタデータ) (2022-02-26T17:32:57Z) - MIO : Mutual Information Optimization using Self-Supervised Binary
Contrastive Learning [19.5917119072985]
対が正かどうかを予測するために、比較学習を二項分類問題にモデル化する。
提案手法は,STL-10,CIFAR-10,CIFAR-100などのベンチマークデータセットにおいて,最先端のアルゴリズムよりも優れている。
論文 参考訳(メタデータ) (2021-11-24T17:51:29Z) - Adaptive Sampling for Heterogeneous Rank Aggregation from Noisy Pairwise
Comparisons [85.5955376526419]
ランキングアグリゲーション問題では、各項目を比較する際に、様々な精度レベルが示される。
本稿では,ノイズのあるペアワイズ比較によってアイテムのランクを推定する,除去に基づくアクティブサンプリング戦略を提案する。
提案アルゴリズムは,商品の真のランキングを高い確率で返却できることを示す。
論文 参考訳(メタデータ) (2021-10-08T13:51:55Z) - Task Affinity with Maximum Bipartite Matching in Few-Shot Learning [28.5184196829547]
本稿では,1つのタスクの知識を活用して,別のタスクを学習する複雑性を表現するための非対称親和性スコアを提案する。
特に、このスコアを用いて、テストデータに関連するトレーニングデータラベルを見つけ、発見した関連するデータを活用して、いくつかのショットモデルをエピソード的に微調整する。
論文 参考訳(メタデータ) (2021-10-05T23:15:55Z) - Scalable Personalised Item Ranking through Parametric Density Estimation [53.44830012414444]
暗黙のフィードバックから学ぶことは、一流問題の難しい性質のために困難です。
ほとんどの従来の方法は、一級問題に対処するためにペアワイズランキングアプローチとネガティブサンプラーを使用します。
本論文では,ポイントワイズと同等の収束速度を実現する学習対ランクアプローチを提案する。
論文 参考訳(メタデータ) (2021-05-11T03:38:16Z) - Evaluating representations by the complexity of learning low-loss
predictors [55.94170724668857]
下流タスクの解決に使用されるデータの表現を評価することの問題点を考察する。
本稿では,関心のあるタスクにおける低損失を実現する表現の上に,予測器を学習する複雑性によって表現の質を測定することを提案する。
論文 参考訳(メタデータ) (2020-09-15T22:06:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。