論文の概要: Controlling Diversity at Inference: Guiding Diffusion Recommender Models with Targeted Category Preferences
- arxiv url: http://arxiv.org/abs/2411.11240v1
- Date: Mon, 18 Nov 2024 02:15:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-19 14:32:01.189788
- Title: Controlling Diversity at Inference: Guiding Diffusion Recommender Models with Targeted Category Preferences
- Title(参考訳): 推論における多様性の制御:ターゲットカテゴリー設定による拡散参照モデルの誘導
- Authors: Gwangseok Han, Wonbin Kweon, Minsoo Kim, Hwanjo Yu,
- Abstract要約: 我々は,提案手法であるtextbfD3Rec (UnderlineDisentangled UnderlineDiffusion model for UnderlineDiversified UnderlineRecommendation) を提案する。
D3Recは,(1)カテゴリー選好に基づくレコメンデーション,(2)推論フェーズにおけるカテゴリー選好の制御,(3)任意のカテゴリー選好に対応することによって,私たちの3つのデシダータに適合する。
- 参考スコア(独自算出の注目度): 17.16257872425542
- License:
- Abstract: Diversity control is an important task to alleviate bias amplification and filter bubble problems. The desired degree of diversity may fluctuate based on users' daily moods or business strategies. However, existing methods for controlling diversity often lack flexibility, as diversity is decided during training and cannot be easily modified during inference. We propose \textbf{D3Rec} (\underline{D}isentangled \underline{D}iffusion model for \underline{D}iversified \underline{Rec}ommendation), an end-to-end method that controls the accuracy-diversity trade-off at inference. D3Rec meets our three desiderata by (1) generating recommendations based on category preferences, (2) controlling category preferences during the inference phase, and (3) adapting to arbitrary targeted category preferences. In the forward process, D3Rec removes category preferences lurking in user interactions by adding noises. Then, in the reverse process, D3Rec generates recommendations through denoising steps while reflecting desired category preferences. Extensive experiments on real-world and synthetic datasets validate the effectiveness of D3Rec in controlling diversity at inference.
- Abstract(参考訳): 多様性制御はバイアス増幅を緩和し、バブル問題をフィルタする重要なタスクである。
望ましい多様性の度合いは、ユーザの日々のムードやビジネス戦略に基づいて変動する可能性がある。
しかしながら、既存の多様性制御方法は、トレーニング中に多様性が決定され、推論中に容易に修正できないため、柔軟性に欠けることが多い。
本稿では, 推論における精度・多様性のトレードオフを制御するエンド・ツー・エンド法である \textbf{D}isentangled \underline{D}iffusion model for \underline{D}iversified \underline{Rec}ommendationを提案する。
D3Recは,(1)カテゴリー選好に基づくレコメンデーション,(2)推論フェーズにおけるカテゴリー選好の制御,(3)任意のカテゴリー選好に対応することによって,私たちの3つのデシダータに適合する。
フォワードプロセスでは、D3Recはノイズを追加することでユーザインタラクションに潜むカテゴリの選好を削除する。
そして、逆のプロセスでD3Recは、望ましいカテゴリの選好を反映しながら、ステップを飾ることでレコメンデーションを生成する。
実世界のデータセットと合成データセットに関する大規模な実験は、推論における多様性の制御におけるD3Recの有効性を検証する。
関連論文リスト
- Uncertainty-Penalized Direct Preference Optimization [52.387088396044206]
我々は、優先不確実性ペナル化スキームを導入し、DPOの悲観的な枠組みを開発する。
ペナル化は、不確実なサンプルの損失勾配を減衰させる損失の補正として機能する。
我々は,バニラDPOと比較して全体的な性能が向上し,高い不確実性選択/拒絶反応によるプロンプトの完成度も向上した。
論文 参考訳(メタデータ) (2024-10-26T14:24:37Z) - Preference Diffusion for Recommendation [50.8692409346126]
DMベースのレコメンデータに適した最適化対象であるPreferDiffを提案する。
PreferDiffは、BPRをログライクなランキング目標に変換することで、ユーザの好みをよりよく把握する。
これはDMベースのレコメンデーション向けに特別に設計された、パーソナライズされたランキングの損失である。
論文 参考訳(メタデータ) (2024-10-17T01:02:04Z) - DifFaiRec: Generative Fair Recommender with Conditional Diffusion Model [22.653890395053207]
本稿では,拡散に基づくFair Recommender (DifFaiRec) という新しい推薦アルゴリズムを提案する。
DifFaiRecは条件付き拡散モデルに基づいており、アイテムのレーティングからユーザの好みの分布を学習する強力な能力を持っている。
公正性を保証するため,保護属性に対するモデル感度を低減し,数学的説明を提供するために,対物モジュールを設計する。
論文 参考訳(メタデータ) (2024-09-18T07:39:33Z) - DATTA: Towards Diversity Adaptive Test-Time Adaptation in Dynamic Wild World [6.816521410643928]
本稿では,QoE(Quality of Experience)の改善を目的としたDATTA(Diversity Adaptive Test-Time Adaptation)という手法を提案する。
バッチの多様性を評価するダイバーシティ識別(DD)、DDの洞察に基づく正規化手法を調整するためのダイバーシティ適応バッチ正規化(DABN)、モデルを選択的に微調整するダイバーシティ適応細調整(DAFT)の3つの主要なコンポーネントが特徴である。
実験結果から,本手法の精度は最先端手法と比較して最大21%向上することがわかった。
論文 参考訳(メタデータ) (2024-08-15T09:50:11Z) - DPO: Dual-Perturbation Optimization for Test-time Adaptation in 3D Object Detection [34.04061546178302]
実世界での3D検出器のトレーニングは、テストデータの分布がトレーニングデータから著しくずれたときに、しばしば不満足なパフォーマンスをもたらす。
我々は,textbfunderlineTest-underlinetime underlineAdaptation in Underline3Dに対して,textbfdual-perturbation Optimization (DPO)を提案する。
我々は、平らなロスランドスケープを育むためのシャープさを最小限に抑え、小さなデータバリエーションに対するモデルレジリエンスを確保する。
論文 参考訳(メタデータ) (2024-06-19T23:46:08Z) - Sequential Recommendation with Controllable Diversification: Representation Degeneration and Diversity [59.24517649169952]
我々は,表現退化問題は,既存のSR手法における推奨の多様性の欠如の根本原因であると主張している。
Singular sPectrum sMoothing regularization for Recommendation (SPMRec)を提案する。
論文 参考訳(メタデータ) (2023-06-21T02:42:37Z) - TD3 with Reverse KL Regularizer for Offline Reinforcement Learning from
Mixed Datasets [118.22975463000928]
エージェントが複数の行動ポリシーをロールアウトすることで収集したデータセットから学習する必要があるオフライン強化学習(RL)について考察する。
1) RL信号の最適化と行動クローニング(BC)信号の最適なトレードオフは、異なる行動ポリシーによって引き起こされる行動カバレッジの変化によって異なる状態に変化する。
本稿では,TD3アルゴリズムに基づくBC正規化器として,適応重み付き逆KL(Kulback-Leibler)分散を用いることにより,両課題に対処する。
論文 参考訳(メタデータ) (2022-12-05T09:36:23Z) - Out-of-Domain Human Mesh Reconstruction via Dynamic Bilevel Online
Adaptation [87.85851771425325]
我々は、人間のメッシュ再構成モデルをドメイン外ストリーミングビデオに適用する際の新しい問題を考える。
オンライン適応によってこの問題に対処し、テスト中のモデルのバイアスを徐々に修正します。
動的バイレベルオンライン適応アルゴリズム(DynaBOA)を提案する。
論文 参考訳(メタデータ) (2021-11-07T07:23:24Z) - Probabilistic and Variational Recommendation Denoising [56.879165033014026]
暗黙のフィードバックから学ぶことは、推奨システムの適用において最も一般的なケースの1つである。
本稿では,暗黙のフィードバックに対する確率的・変動的推薦を提案する。
提案したDPIとDVAEを4つの最先端レコメンデーションモデルに適用し、3つのデータセットで実験を行う。
論文 参考訳(メタデータ) (2021-05-20T08:59:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。