論文の概要: DiPS: Differentiable Policy for Sketching in Recommender Systems
- arxiv url: http://arxiv.org/abs/2112.07616v1
- Date: Wed, 8 Dec 2021 01:31:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-19 12:25:39.974720
- Title: DiPS: Differentiable Policy for Sketching in Recommender Systems
- Title(参考訳): DiPS:レコメンダシステムにおけるスケッチのための微分可能なポリシー
- Authors: Aritra Ghosh, Saayan Mitra, Andrew Lan
- Abstract要約: スケッチのための差別化可能なポリシー(DiPS)を提案する。
DiPSは、将来、推奨品質を明示的に最大化するために、レコメンダシステムモデルとともに、エンドツーエンドでデータ駆動のスケッチポリシーを学習する。
- 参考スコア(独自算出の注目度): 5.1135133995376085
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In sequential recommender system applications, it is important to develop
models that can capture users' evolving interest over time to successfully
recommend future items that they are likely to interact with. For users with
long histories, typical models based on recurrent neural networks tend to
forget important items in the distant past. Recent works have shown that
storing a small sketch of past items can improve sequential recommendation
tasks. However, these works all rely on static sketching policies, i.e.,
heuristics to select items to keep in the sketch, which are not necessarily
optimal and cannot improve over time with more training data. In this paper, we
propose a differentiable policy for sketching (DiPS), a framework that learns a
data-driven sketching policy in an end-to-end manner together with the
recommender system model to explicitly maximize recommendation quality in the
future. We also propose an approximate estimator of the gradient for optimizing
the sketching algorithm parameters that is computationally efficient. We verify
the effectiveness of DiPS on real-world datasets under various practical
settings and show that it requires up to $50\%$ fewer sketch items to reach the
same predictive quality than existing sketching policies.
- Abstract(参考訳): シーケンシャルなレコメンデーションシステムアプリケーションでは、ユーザの興味を時間とともに捉え、対話しそうな将来的なアイテムをうまく推薦できるモデルを開発することが重要である。
長い歴史を持つユーザにとって、リカレントニューラルネットワークに基づく典型的なモデルは、遠い過去の重要なアイテムを忘れがちである。
近年の研究では、過去の項目の小さなスケッチを保存することで、シーケンシャルなレコメンデーションタスクを改善することが示されている。
しかし、これらは全て静的なスケッチポリシー、すなわちスケッチに残るアイテムを選択するヒューリスティックスに依存しており、これは必ずしも最適ではなく、より多くのトレーニングデータで時間とともに改善することができない。
本稿では,データ駆動型スケッチポリシーをエンド・ツー・エンドで学習するフレームワークであるDigitalable Policy for sketching(DiPS)と,将来的な推奨品質を明示的に最大化するレコメンデーションシステムモデルを提案する。
また,計算効率のよいスケッチアルゴリズムパラメータを最適化するための勾配近似推定器を提案する。
実世界のデータセットにおけるDiPSの有効性を,さまざまな実践的条件下で検証し,既存のスケッチポリシーと同じ品質に達するためには,最大50\%のスケッチ項目を削減する必要があることを示す。
関連論文リスト
- Pre-trained Language Model and Knowledge Distillation for Lightweight Sequential Recommendation [51.25461871988366]
本稿では,事前学習言語モデルと知識蒸留に基づく逐次推薦アルゴリズムを提案する。
提案アルゴリズムは,推薦精度を高め,タイムリーな推薦サービスを提供する。
論文 参考訳(メタデータ) (2024-09-23T08:39:07Z) - RecMind: Large Language Model Powered Agent For Recommendation [16.710558148184205]
RecMindは、ゼロショットパーソナライズされたレコメンデーションを慎重に計画する自律的なレコメンデーションエージェントである。
実験の結果,RecMind は既存のゼロ/フェーショット LLM ベースのレコメンデーションベースライン手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-08-28T04:31:04Z) - Generative Slate Recommendation with Reinforcement Learning [49.75985313698214]
強化学習アルゴリズムは、レコメンデータシステムのユーザエンゲージメントを最適化するために使用することができる。
しかし、RLアプローチはスレートレコメンデーションシナリオでは難解である。
この設定では、アクションはアイテムの組み合わせを含むことができるスレートに対応する。
本研究では,変分オートエンコーダによって学習された連続低次元ラテント空間におけるスレートの符号化を提案する。
我々は、(i)以前の作業で要求される仮定を緩和し、(ii)完全なスレートをモデル化することで、アクション選択の品質を向上させることができる。
論文 参考訳(メタデータ) (2023-01-20T15:28:09Z) - Modeling Time-Series and Spatial Data for Recommendations and Other
Applications [1.713291434132985]
我々は,CTESデータの品質が低いために発生する可能性のある問題をレコメンデーションシステムに入力する。
CTESデータの質を向上させるため、時間的シーケンスにおける欠落イベントを克服する根本的な問題に対処する。
我々は、大規模CTES検索と人間の活動予測のためのソリューションの設計にそれらの能力を拡張した。
論文 参考訳(メタデータ) (2022-12-25T09:34:15Z) - CPPF++: Uncertainty-Aware Sim2Real Object Pose Estimation by Vote Aggregation [67.12857074801731]
そこで本研究では,シミュレートからリアルなポーズ推定のための新しい手法であるCPPF++を提案する。
投票衝突による課題に対処するため,投票の不確実性をモデル化する新たなアプローチを提案する。
ノイズの多いペアフィルタリング、オンラインアライメント最適化、機能アンサンブルなど、いくつかの革新的なモジュールを組み込んでいます。
論文 参考訳(メタデータ) (2022-11-24T03:27:00Z) - Latent User Intent Modeling for Sequential Recommenders [92.66888409973495]
逐次リコメンデータモデルは、プラットフォーム上での氏のインタラクション履歴に基づいて、ユーザが次に対話する可能性のあるアイテムを予測することを学習する。
しかし、ほとんどのシーケンシャルなレコメンデータは、ユーザの意図に対する高いレベルの理解を欠いている。
したがって、インテントモデリングはユーザー理解と長期ユーザーエクスペリエンスの最適化に不可欠である。
論文 参考訳(メタデータ) (2022-11-17T19:00:24Z) - Fast Offline Policy Optimization for Large Scale Recommendation [74.78213147859236]
我々は、カタログサイズと対数的にスケールするこれらのポリシー学習アルゴリズムの近似を導出する。
私たちの貢献は3つの新しいアイデアの組み合わせに基づいている。
我々の推定器は、単純なアプローチよりも桁違いに速いが、等しく良いポリシーを生成する。
論文 参考訳(メタデータ) (2022-08-08T11:54:11Z) - Bayesian Non-stationary Linear Bandits for Large-Scale Recommender
Systems [6.009759445555003]
この問題に対処するために,線形コンテキスト多重武装バンディットフレームワークを構築した。
本研究では,高次元特徴ベクトルを用いた線形帯域問題に対する意思決定ポリシーを開発する。
提案するリコメンデータシステムは,実行環境を最小化しながら,ユーザの項目嗜好をオンラインで学習する。
論文 参考訳(メタデータ) (2022-02-07T13:51:19Z) - Lightweight Compositional Embeddings for Incremental Streaming
Recommendation [21.857949766385186]
計算コストの低いインクリメンタルアップデートをサポートするグラフベースのレコメンデーションモデルを提案する。
軽量構成埋め込み(LCE)は、ノードのサブセットのみに対する明示的な埋め込みを学び、他のノードを暗黙的に表現する。
LCEは、グラフベースの代替モデルよりもパラメータが大幅に少ない、ほぼスカイラインのパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-02-04T23:05:14Z) - Probabilistic Metric Learning with Adaptive Margin for Top-K
Recommendation [40.80017379274105]
いくつかの新しい側面を持つ距離ベースレコメンデーションモデルを開発する。
提案モデルは、Top-Kレコメンデーションのrecall@Kの点で、最高の既存のモデルを4-22%上回る。
論文 参考訳(メタデータ) (2021-01-13T03:11:04Z) - Optimizing for the Future in Non-Stationary MDPs [52.373873622008944]
本稿では,今後の性能予測を最大化するポリシ勾配アルゴリズムを提案する。
我々のアルゴリズムであるPrognosticatorは2つのオンライン適応手法よりも非定常性に頑健であることを示す。
論文 参考訳(メタデータ) (2020-05-17T03:41:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。