論文の概要: Learning over no-Preferred and Preferred Sequence of items for Robust
Recommendation
- arxiv url: http://arxiv.org/abs/2012.06910v1
- Date: Sat, 12 Dec 2020 22:10:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-10 05:10:50.148461
- Title: Learning over no-Preferred and Preferred Sequence of items for Robust
Recommendation
- Title(参考訳): ロバストな推薦のための非推奨・推奨項目列による学習
- Authors: Aleksandra Burashnikova, Marianne Clausel, Charlotte Laclau, Frack
Iutzeller, Yury Maximov, Massih-Reza Amini
- Abstract要約: 暗黙のフィードバックよりも大規模なレコメンダーシステム(RS)を訓練するための理論的に確立されたシーケンシャル戦略を提案する。
本稿では、モデルパラメータをモメンタリメソッドまたはグラデーションベースのアプローチで更新するこの戦略の2つのバリエーションを紹介します。
- 参考スコア(独自算出の注目度): 66.8722561224499
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose a theoretically founded sequential strategy for
training large-scale Recommender Systems (RS) over implicit feedback, mainly in
the form of clicks. The proposed approach consists in minimizing pairwise
ranking loss over blocks of consecutive items constituted by a sequence of
non-clicked items followed by a clicked one for each user. We present two
variants of this strategy where model parameters are updated using either the
momentum method or a gradient-based approach. To prevent from updating the
parameters for an abnormally high number of clicks over some targeted items
(mainly due to bots), we introduce an upper and a lower threshold on the number
of updates for each user. These thresholds are estimated over the distribution
of the number of blocks in the training set. The thresholds affect the decision
of RS and imply a shift over the distribution of items that are shown to the
users. Furthermore, we provide a convergence analysis of both algorithms and
demonstrate their practical efficiency over six large-scale collections, both
regarding different ranking measures and computational time.
- Abstract(参考訳): 本稿では,主にクリックの形で,暗黙的なフィードバックに基づいて大規模レコメンダシステム(rs)をトレーニングするための理論的に確立された逐次戦略を提案する。
提案手法は,非クリック項目の系列とクリック項目の各ユーザからなる連続項目のブロックに対して,対方向のランキングロスを最小化するものである。
本稿では,モーメント法と勾配法のいずれかを用いてモデルパラメータを更新する手法を提案する。
対象アイテム(主にボット)に対する異常なクリック数に対するパラメータの更新を防止するため,ユーザ毎のアップデート数に対して,上位と下位のしきい値を導入する。
これらの閾値は、トレーニングセット内のブロック数の分布に対して推定される。
閾値は、RSの決定に影響を及ぼし、ユーザに示されるアイテムの分布のシフトを示唆する。
さらに,両アルゴリズムの収束解析を行い,異なるランキング尺度と計算時間の両方に関して,6つの大規模コレクションに対して実効性を示す。
関連論文リスト
- Multi-Weight Ranking for Multi-Criteria Decision Making [0.0]
統計値からコーン分布関数を多基準決定ツールに変換する。
ランキング関数はその後拡張され、設定された好みに対する一元的な指標が提供される。
機械学習の潜在的な応用について概説する。
論文 参考訳(メタデータ) (2023-12-04T11:13:42Z) - Federated Learning Robust to Byzantine Attacks: Achieving Zero
Optimality Gap [21.50616436951285]
本稿では,悪質なビザンツ人攻撃に効果的に取り組むことのできる,連邦学習(FL)のためのロバストな集約手法を提案する。
各ユーザでは、モデルのパラメータを複数のステップで更新し、イテレーションで調整可能となり、アグリゲーションセンターに直接プッシュする。
論文 参考訳(メタデータ) (2023-08-21T02:43:38Z) - Large-scale Fully-Unsupervised Re-Identification [78.47108158030213]
大規模未ラベルデータから学ぶための2つの戦略を提案する。
第1の戦略は、近傍関係に違反することなく、それぞれのデータセットサイズを減らすために、局所的な近傍サンプリングを行う。
第2の戦略は、低時間上限の複雑さを持ち、メモリの複雑さを O(n2) から O(kn) に k n で還元する新しい再帰的手法を利用する。
論文 参考訳(メタデータ) (2023-07-26T16:19:19Z) - Large-Scale Sequential Learning for Recommender and Engineering Systems [91.3755431537592]
本稿では,現在の状況に適応してパーソナライズされたランキングを提供する自動アルゴリズムの設計に焦点を当てる。
前者はSAROSと呼ばれる新しいアルゴリズムを提案し,インタラクションの順序を学習するためのフィードバックの種類を考慮に入れている。
提案手法は, 電力網の故障検出に対する初期アプローチと比較して, 統計的に有意な結果を示す。
論文 参考訳(メタデータ) (2022-05-13T21:09:41Z) - Learning over No-Preferred and Preferred Sequence of Items for Robust
Recommendation (Extended Abstract) [69.50145858681951]
本稿では,暗黙のフィードバックよりも大規模レコメンダシステム(RS)を訓練するための理論的に支持された逐次戦略を提案する。
本稿では,モーメント法と勾配法のいずれかを用いてモデルパラメータを更新する手法を提案する。
論文 参考訳(メタデータ) (2022-02-26T22:29:43Z) - Set2setRank: Collaborative Set to Set Ranking for Implicit Feedback
based Recommendation [59.183016033308014]
本稿では,暗黙的フィードバックの特徴を探究し,推奨するSet2setRankフレームワークを提案する。
提案するフレームワークはモデルに依存しず,ほとんどの推奨手法に容易に適用できる。
論文 参考訳(メタデータ) (2021-05-16T08:06:22Z) - Sample-Rank: Weak Multi-Objective Recommendations Using Rejection
Sampling [0.5156484100374059]
本稿では,マルチゴールサンプリングとユーザ関連度(Sample-Rank)のランク付けによるマーケットプレースの多目的目標への推薦手法を提案する。
提案手法の新規性は,望まれるマルチゴール分布からサンプリングするMOレコメンデーション問題を低減し,プロダクションフレンドリーな学習-ランクモデルを構築することである。
論文 参考訳(メタデータ) (2020-08-24T09:17:18Z) - Policy Evaluation and Seeking for Multi-Agent Reinforcement Learning via
Best Response [15.149039407681945]
多エージェント強化学習におけるメタレベルでの利己的な振る舞いをモデル化するために、厳密なベストレスポンスダイナミクスを採用する。
我々のアプローチは、弱い応答に依存するアルファランクよりもシングルエージェント強化学習と互換性がある。
論文 参考訳(メタデータ) (2020-06-17T01:17:52Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。