論文の概要: Determinantal Point Process Likelihoods for Sequential Recommendation
- arxiv url: http://arxiv.org/abs/2204.11562v1
- Date: Mon, 25 Apr 2022 11:20:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-26 15:34:18.205797
- Title: Determinantal Point Process Likelihoods for Sequential Recommendation
- Title(参考訳): 逐次勧告のための決定点プロセス
- Authors: Yuli Liu, Christian Walder, Lexing Xie
- Abstract要約: 本稿では,DPP(Determinantal Point Process)の確率に基づく2つの新たな損失関数を提案する。
提案した損失関数を実世界の3つのデータセットで実験した結果、品質と多様性の指標の両方において、最先端のシーケンシャルなレコメンデーション手法よりも顕著な改善が見られた。
- 参考スコア(独自算出の注目度): 12.206748373325972
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Sequential recommendation is a popular task in academic research and close to
real-world application scenarios, where the goal is to predict the next
action(s) of the user based on his/her previous sequence of actions. In the
training process of recommender systems, the loss function plays an essential
role in guiding the optimization of recommendation models to generate accurate
suggestions for users. However, most existing sequential recommendation
techniques focus on designing algorithms or neural network architectures, and
few efforts have been made to tailor loss functions that fit naturally into the
practical application scenario of sequential recommender systems.
Ranking-based losses, such as cross-entropy and Bayesian Personalized Ranking
(BPR) are widely used in the sequential recommendation area. We argue that such
objective functions suffer from two inherent drawbacks: i) the dependencies
among elements of a sequence are overlooked in these loss formulations; ii)
instead of balancing accuracy (quality) and diversity, only generating accurate
results has been over emphasized. We therefore propose two new loss functions
based on the Determinantal Point Process (DPP) likelihood, that can be
adaptively applied to estimate the subsequent item or items. The
DPP-distributed item set captures natural dependencies among temporal actions,
and a quality vs. diversity decomposition of the DPP kernel pushes us to go
beyond accuracy-oriented loss functions. Experimental results using the
proposed loss functions on three real-world datasets show marked improvements
over state-of-the-art sequential recommendation methods in both quality and
diversity metrics.
- Abstract(参考訳): シークエンシャルレコメンデーション(Sequential recommendation)は、学術研究において一般的なタスクであり、現実のアプリケーションシナリオに近い。
推薦システムのトレーニングプロセスでは,ユーザの正確な提案を生成するために,推薦モデルの最適化を導く上で,損失関数が重要な役割を果たす。
しかし、既存のシーケンシャルレコメンデーション技術のほとんどはアルゴリズムやニューラルネットワークアーキテクチャの設計に焦点を当てており、シーケンシャルレコメンデータシステムの実用シナリオに自然に適合する損失関数を調整するための努力はほとんど行われていない。
シーケンシャルレコメンデーションエリアでは、クロスエントロピーやベイジアンパーソナライズドランキング(BPR)のようなランキングベースの損失が広く使用されている。
このような目的関数は2つの固有の欠点に悩まされる。
一 この損失定式化において、シーケンスの要素間の依存関係が見過ごされていること。
二 精度(品質)及び多様性のバランスをとる代わりに、正確な結果のみを発生させることが強調されていること。
そこで我々は,次の項目や項目を推定するために適応的に適用可能な,行列点過程(dpp)の可能性に基づく2つの新しい損失関数を提案する。
DPP分散アイテムセットは、時間的動作間の自然な依存関係をキャプチャし、DPPカーネルの品質と多様性の分解により、精度指向の損失関数を超えることができる。
提案した損失関数を実世界の3つのデータセットで実験した結果、品質と多様性の指標の両方において、最先端のシーケンシャルなレコメンデーション手法の改善が示された。
関連論文リスト
- Uncertainty-Penalized Direct Preference Optimization [52.387088396044206]
我々は、優先不確実性ペナル化スキームを導入し、DPOの悲観的な枠組みを開発する。
ペナル化は、不確実なサンプルの損失勾配を減衰させる損失の補正として機能する。
我々は,バニラDPOと比較して全体的な性能が向上し,高い不確実性選択/拒絶反応によるプロンプトの完成度も向上した。
論文 参考訳(メタデータ) (2024-10-26T14:24:37Z) - Exploiting Preferences in Loss Functions for Sequential Recommendation via Weak Transitivity [4.7894654945375175]
最適化の目的の選択は、レコメンダシステムの設計において極めて重要である。
そこで本研究では,スコア間の相対的な順序として,異なる選好レベルを明示的に活用するために,本来の目的を拡張した新しい手法を提案する。
論文 参考訳(メタデータ) (2024-08-01T06:55:19Z) - Learning k-Determinantal Point Processes for Personalized Ranking [13.677246792673564]
パーソナライズされたランキングのセット確率比較に基づく新しい最適化基準LkPを提案する。
LkPは広く適用でき、既存のレコメンデーションモデルに適用すると、パフォーマンスも大幅に向上する。
論文 参考訳(メタデータ) (2024-06-23T02:24:50Z) - Generalizing Bayesian Optimization with Decision-theoretic Entropies [102.82152945324381]
統計的決定論の研究からシャノンエントロピーの一般化を考える。
まず,このエントロピーの特殊なケースがBO手順でよく用いられる獲得関数に繋がることを示す。
次に、損失に対する選択肢の選択が、どのようにして柔軟な獲得関数の族をもたらすかを示す。
論文 参考訳(メタデータ) (2022-10-04T04:43:58Z) - Recommendation Systems with Distribution-Free Reliability Guarantees [83.80644194980042]
我々は、主に良いアイテムを含むことを厳格に保証されたアイテムのセットを返す方法を示す。
本手法は, 擬似発見率の厳密な有限サンプル制御によるランキングモデルを提供する。
我々はYahoo!のランキングとMSMarcoデータセットの学習方法を評価する。
論文 参考訳(メタデータ) (2022-07-04T17:49:25Z) - Gleo-Det: Deep Convolution Feature-Guided Detector with Local Entropy
Optimization for Salient Points [5.955667705173262]
本稿では, 深い畳み込み特徴のガイダンスを伴い, 繰り返し可能性の要求に基づき, きめ細かな制約を実現することを提案する。
畳み込み特徴のガイダンスを用いて、正と負の両面からコスト関数を定義する。
論文 参考訳(メタデータ) (2022-04-27T12:40:21Z) - Dynamic Iterative Refinement for Efficient 3D Hand Pose Estimation [87.54604263202941]
本稿では,従来の推定値の修正に部分的レイヤを反復的に活用する,小さなディープニューラルネットワークを提案する。
学習したゲーティング基準を用いて、ウェイトシェアリングループから抜け出すかどうかを判断し、モデルにサンプルごとの適応を可能にする。
提案手法は,広く使用されているベンチマークの精度と効率の両面から,最先端の2D/3Dハンドポーズ推定手法より一貫して優れている。
論文 参考訳(メタデータ) (2021-11-11T23:31:34Z) - The Perils of Learning Before Optimizing [16.97597806975415]
本稿では,最適化タスクを通じて予測モデルを識別することで,エンドツーエンドで予測モデルを学習する方法を示す。
2段階のアプローチとエンドツーエンドのアプローチのパフォーマンスギャップは、最適化における相関の概念の強調と密接に関係していることが示される。
論文 参考訳(メタデータ) (2021-06-18T20:43:47Z) - Learning MDPs from Features: Predict-Then-Optimize for Sequential
Decision Problems by Reinforcement Learning [52.74071439183113]
我々は、強化学習を通して解決された逐次決定問題(MDP)の文脈における予測列最適化フレームワークについて検討した。
2つの重要な計算課題は、意思決定中心の学習をMDPに適用することである。
論文 参考訳(メタデータ) (2021-06-06T23:53:31Z) - Optimizing for the Future in Non-Stationary MDPs [52.373873622008944]
本稿では,今後の性能予測を最大化するポリシ勾配アルゴリズムを提案する。
我々のアルゴリズムであるPrognosticatorは2つのオンライン適応手法よりも非定常性に頑健であることを示す。
論文 参考訳(メタデータ) (2020-05-17T03:41:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。