論文の概要: Choosing the Best of Both Worlds: Diverse and Novel Recommendations
through Multi-Objective Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2110.15097v1
- Date: Thu, 28 Oct 2021 13:22:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-29 16:25:19.506591
- Title: Choosing the Best of Both Worlds: Diverse and Novel Recommendations
through Multi-Objective Reinforcement Learning
- Title(参考訳): 両世界のベストを選ぶ:多目的強化学習による多様性と新しい勧告
- Authors: Dusan Stamenkovic, Alexandros Karatzoglou, Ioannis Arapakis, Xin Xin,
Kleomenis Katevas
- Abstract要約: 本稿では,Recommender Systems (RS) 設定のための拡張多目的強化学習(SMORL)を紹介する。
SMORLエージェントは、標準レコメンデーションモデルを拡張し、RLレイヤーを追加し、3つの主要な目的(正確性、多様性、新しいレコメンデーション)を同時に満たすように強制する。
実世界の2つのデータセットに対する実験結果から,集約的多様性の顕著な増加,精度の適度な向上,レコメンデーションの反復性の低下,および相補的目的としての多様性と新規性の強化の重要性が示された。
- 参考スコア(独自算出の注目度): 68.45370492516531
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Since the inception of Recommender Systems (RS), the accuracy of the
recommendations in terms of relevance has been the golden criterion for
evaluating the quality of RS algorithms. However, by focusing on item
relevance, one pays a significant price in terms of other important metrics:
users get stuck in a "filter bubble" and their array of options is
significantly reduced, hence degrading the quality of the user experience and
leading to churn. Recommendation, and in particular session-based/sequential
recommendation, is a complex task with multiple - and often conflicting
objectives - that existing state-of-the-art approaches fail to address.
In this work, we take on the aforementioned challenge and introduce
Scalarized Multi-Objective Reinforcement Learning (SMORL) for the RS setting, a
novel Reinforcement Learning (RL) framework that can effectively address
multi-objective recommendation tasks. The proposed SMORL agent augments
standard recommendation models with additional RL layers that enforce it to
simultaneously satisfy three principal objectives: accuracy, diversity, and
novelty of recommendations. We integrate this framework with four
state-of-the-art session-based recommendation models and compare it with a
single-objective RL agent that only focuses on accuracy. Our experimental
results on two real-world datasets reveal a substantial increase in aggregate
diversity, a moderate increase in accuracy, reduced repetitiveness of
recommendations, and demonstrate the importance of reinforcing diversity and
novelty as complementary objectives.
- Abstract(参考訳): Recommender Systems (RS) の登場以来、RSアルゴリズムの品質を評価する上では、関連性の観点からの推奨の正確さが黄金の基準となっている。
ユーザが"フィルタバブル"で立ち往生し、オプションの配列が大幅に削減されるため、ユーザエクスペリエンスの品質が低下し、混乱に陥ります。
勧告、特にセッションベース/シーケンスレコメンデーションは、既存の最先端アプローチが対処できない、複数の、そしてしばしば矛盾する目標を持つ複雑なタスクである。
本稿では,上記の課題を取り上げ,多目的レコメンデーションタスクを効果的に処理可能な新しい強化学習(rl)フレームワークであるrs設定のためのsmorl(sscalarized multi-objective reinforcement learning)を導入する。
提案されたSMORLエージェントは、推奨の正確性、多様性、新規性の3つの主要な目的を同時に満たすためにRL層を追加して標準レコメンデーションモデルを強化する。
このフレームワークを4つの最先端セッションベースレコメンデーションモデルと統合し、精度のみに焦点を当てた単目的RLエージェントと比較する。
実世界の2つのデータセットに対する実験結果から,集約的多様性の顕著な増加,精度の適度な向上,レコメンデーションの反復性の低下,および相補的目的としての多様性と新規性の強化の重要性が示された。
関連論文リスト
- DLCRec: A Novel Approach for Managing Diversity in LLM-Based Recommender Systems [9.433227503973077]
LLMに基づくレコメンデーションにおいて,多様性のきめ細かい制御を可能にする新しいフレームワークを提案する。
従来の方法とは異なり、DLCRecはきめ細かいタスク分解戦略を採用し、推奨プロセスを3つのサブタスクに分割する。
本稿では,ノイズやアウト・オブ・ディストリビューションデータに対するモデルの堅牢性を高める2つのデータ拡張手法を提案する。
論文 参考訳(メタデータ) (2024-08-22T15:10:56Z) - Revisiting Reciprocal Recommender Systems: Metrics, Formulation, and Method [60.364834418531366]
RRSの性能を包括的かつ正確に評価する5つの新しい評価指標を提案する。
因果的観点からRSを定式化し、二元的介入として勧告を定式化する。
提案手法では,結果の一致を最大化する手法を提案する。
論文 参考訳(メタデータ) (2024-08-19T07:21:02Z) - Deep Pareto Reinforcement Learning for Multi-Objective Recommender Systems [60.91599969408029]
複数の目的を同時に最適化することは、レコメンデーションプラットフォームにとって重要なタスクです。
既存の多目的推薦システムは、そのような動的な関係を体系的に考慮していない。
論文 参考訳(メタデータ) (2024-07-04T02:19:49Z) - A Thorough Performance Benchmarking on Lightweight Embedding-based Recommender Systems [67.52782366565658]
State-of-the-art recommender system (RS) は、埋め込みベクトルによって符号化される分類的特徴に依存し、結果として非常に大きな埋め込みテーブルとなる。
軽量埋め込み型RSの繁栄にもかかわらず、評価プロトコルには幅広い多様性が見られる。
本研究では, LERSの性能, 効率, クロスタスク転送性について, 徹底的なベンチマークによる検討を行った。
論文 参考訳(メタデータ) (2024-06-25T07:45:00Z) - LLM-enhanced Reranking in Recommender Systems [49.969932092129305]
リグレードはレコメンデーションシステムにおいて重要な要素であり、レコメンデーションアルゴリズムの出力を精査する上で重要な役割を果たす。
そこで我々は,様々な格付け基準をシームレスに統合する包括的格付けフレームワークを提案する。
カスタマイズ可能な入力機構も統合されており、言語モデルのフォーカスを特定の再配置のニーズに合わせることができる。
論文 参考訳(メタデータ) (2024-06-18T09:29:18Z) - LIRE: listwise reward enhancement for preference alignment [27.50204023448716]
本稿では、複数の応答のオフライン報酬を合理化されたリストワイズフレームワークに組み込む、勾配に基づく報酬最適化手法を提案する。
LIREは実装が簡単で、最小限のパラメータチューニングを必要とし、ペアワイズパラダイムとシームレスに整合する。
実験の結果,LIREは対話タスクや要約タスクのベンチマークにおいて,既存のメソッドよりも一貫して優れていることがわかった。
論文 参考訳(メタデータ) (2024-05-22T10:21:50Z) - D2RLIR : an improved and diversified ranking function in interactive
recommendation systems based on deep reinforcement learning [0.3058685580689604]
本稿では,アクタ・クリティカルアーキテクチャを用いた深層強化学習に基づく推薦システムを提案する。
提案モデルでは,ユーザの嗜好に基づいて,多様かつ関連性の高いレコメンデーションリストを生成することができる。
論文 参考訳(メタデータ) (2021-10-28T13:11:29Z) - Self-Supervised Reinforcement Learning for Recommender Systems [77.38665506495553]
逐次リコメンデーションタスクのための自己指導型強化学習を提案する。
提案手法は,2つの出力層を持つ標準レコメンデーションモデルを強化する。
このようなアプローチに基づいて、自己監督型Q-ラーニング(SQN)と自己監督型アクター・クライブ(SAC)という2つのフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-10T11:18:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。