論文の概要: Proactive Guiding Strategy for Item-side Fairness in Interactive Recommendation
- arxiv url: http://arxiv.org/abs/2603.03094v1
- Date: Tue, 03 Mar 2026 15:32:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-04 21:38:10.858186
- Title: Proactive Guiding Strategy for Item-side Fairness in Interactive Recommendation
- Title(参考訳): 対話型レコメンデーションにおけるアイテムサイドフェアネスの積極的な指導方略
- Authors: Chongjun Xia, Xiaoyu Shi, Hong Xie, Xianzhi Wang, yun lu, Mingsheng Shang,
- Abstract要約: 既存のアプローチは、推奨結果に直接組み込むことで、ロングテールアイテムの露出を促進する。
これにより、ユーザの嗜好と推奨のロングテールアイテムの相違が生じ、長期のユーザエンゲージメントを阻害し、レコメンデーションの有効性を低下させる。
本稿では,階層的強化学習を活用してユーザの好みを徐々にロングテールアイテムに導くインタラクティブな推薦フレームワークHRL4PFGを提案する。
- 参考スコア(独自算出の注目度): 13.638482554219449
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Item-side fairness is crucial for ensuring the fair exposure of long-tail items in interactive recommender systems. Existing approaches promote the exposure of long-tail items by directly incorporating them into recommended results. This causes misalignment between user preferences and the recommended long-tail items, which hinders long-term user engagement and reduces the effectiveness of recommendations. We aim for a proactive fairness-guiding strategy, which actively guides user preferences toward long-tail items while preserving user satisfaction during the interactive recommendation process. To this end, we propose HRL4PFG, an interactive recommendation framework that leverages hierarchical reinforcement learning to guide user preferences toward long-tail items progressively. HRL4PFG operates through a macro-level process that generates fairness-guided targets based on multi-step feedback, and a micro-level process that fine-tunes recommendations in real time according to both these targets and evolving user preferences. Extensive experiments show that HRL4PFG improves cumulative interaction rewards and maximum user interaction length by a larger margin when compared with state-of-the-art methods in interactive recommendation environments.
- Abstract(参考訳): 対話型レコメンデーションシステムにおいて、ロングテールアイテムの公正な露出を確保するためには、アイテム側の公正性が不可欠である。
既存のアプローチは、推奨結果に直接組み込むことで、ロングテールアイテムの露出を促進する。
これにより、ユーザの嗜好と推奨のロングテールアイテムの相違が生じ、長期のユーザエンゲージメントを阻害し、レコメンデーションの有効性を低下させる。
本研究では,対話的レコメンデーションプロセスにおけるユーザの満足度を維持しつつ,ユーザの嗜好をロングテールアイテムに積極的に導く,積極的なフェアネスガイド戦略を提案する。
この目的のために,階層的強化学習を活用してユーザの好みを徐々にロングテールアイテムに導く対話型レコメンデーションフレームワークHRL4PFGを提案する。
HRL4PFGは、マルチステップフィードバックに基づいて公平に誘導されたターゲットを生成するマクロレベルプロセスと、これらのターゲットと進化するユーザの好みに応じて、リアルタイムにレコメンデーションを微調整するマイクロレベルプロセスを介して動作する。
HRL4PFGは、インタラクティブなレコメンデーション環境における最先端手法と比較して、累積的なインタラクション報酬と最大ユーザインタラクション長をより大きなマージンで改善することを示す。
関連論文リスト
- Tree of Preferences for Diversified Recommendation [54.183647833064136]
データバイアスの観点から、多種多様な推薦について検討する。
本研究では,世界知識を活用したゼロショット推論における大規模言語モデル(LLM)の卓越した性能に着想を得て,新しいアプローチを提案する。
論文 参考訳(メタデータ) (2025-12-24T04:13:17Z) - Using LLMs to Capture Users' Temporal Context for Recommendation [3.719862246745416]
本稿では,Large Language Models (LLMs) を用いて,意味的にリッチでタイムアウェアなユーザプロファイルを生成する手法を提案する。
我々は、新しいエンドツーエンドレコメンデーションアーキテクチャを提案していないが、中核となる貢献は、LLMの有効性の程度を体系的に調査することである。
Movies&TV と Video Games のドメイン間での評価では、LLM の生成したプロファイルは意味的な深さと時間構造を提供するが、コンテキスト対応のレコメンデーションの有効性はユーザーインタラクション履歴の豊かさに特有である。
論文 参考訳(メタデータ) (2025-08-11T22:48:31Z) - Temporal User Profiling with LLMs: Balancing Short-Term and Long-Term Preferences for Recommendations [3.719862246745416]
本稿では,短期および長期の嗜好を明示的にモデル化するユーザプロファイリング手法を提案する。
LLM-TUPは、いくつかのベースラインに対して大幅に改善されている。
論文 参考訳(メタデータ) (2025-08-11T20:28:24Z) - RecGPT Technical Report [57.84251629878726]
本稿では,レコメンデーションパイプラインの中心にユーザの意図を配置する次世代フレームワークRecGPTを提案する。
RecGPTは、大きな言語モデルをユーザ関心のマイニング、アイテム検索、説明生成のキーステージに統合する。
オンライン実験では、RecGPTが利害関係者間で一貫したパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2025-07-30T17:55:06Z) - Compositions of Variant Experts for Integrating Short-Term and Long-Term Preferences [22.769456275892477]
本稿では,推奨性能を高めるために,短期と長期の選好を組み合わせたフレームワークを提案する。
この新しいフレームワークは、異なる専門的なレコメンデーションモデルを使用することで、短期および長期の好みを動的に統合する。
論文 参考訳(メタデータ) (2025-06-29T10:09:33Z) - Multi-agents based User Values Mining for Recommendation [52.26100802380767]
効率的なユーザ値抽出のためのゼロショットマルチLLM協調フレームワークを提案する。
本研究は,本質的な意味を保ちながら,項目内容のコンデンスにテキスト要約手法を適用した。
幻覚を緩和するために,評価役と監督役の2つの特殊エージェントの役割を導入する。
論文 参考訳(メタデータ) (2025-05-02T04:01:31Z) - Search-Based Interaction For Conversation Recommendation via Generative Reward Model Based Simulated User [117.82681846559909]
会話レコメンデーションシステム(CRS)は、マルチターンインタラクションを使用してユーザの好みを捉え、パーソナライズされたレコメンデーションを提供する。
本稿では,CRSと自動インタラクションを行うための生成報酬モデルに基づくシミュレーションユーザGRSUを提案する。
論文 参考訳(メタデータ) (2025-04-29T06:37:30Z) - Reason4Rec: Large Language Models for Recommendation with Deliberative User Preference Alignment [69.11529841118671]
本稿では,ユーザの嗜好に関する明確な推論を新たなアライメント目標として組み込んだ,新たなDeliberative Recommendationタスクを提案する。
次にReasoningを利用したRecommenderフレームワークを導入する。
論文 参考訳(メタデータ) (2025-02-04T07:17:54Z) - Leveraging LLMs for Influence Path Planning in Proactive Recommendation [34.5820082133773]
プロアクティブなレコメンデーターシステムは ユーザーの興味を 徐々に 歴史的な関心を超えて ターゲットアイテムとして 導くことを目的としています
IRSは、影響経路計画のためのシーケンシャルモデルを設計するが、対象項目の包摂性や経路コヒーレンスに欠ける問題に直面している。
協調的かつ効果的な影響経路を生成するLLM-IPP法を提案する。
論文 参考訳(メタデータ) (2024-09-07T13:41:37Z) - Beyond Item Dissimilarities: Diversifying by Intent in Recommender Systems [20.04619904064599]
我々は,提案システムの最終段階を対象とした確率論的意図に基づく全ページ多様化フレームワークを開発する。
われわれは、世界最大のビデオレコメンデーションプラットフォームであるYouTubeの意図多様化フレームワークを実験した。
論文 参考訳(メタデータ) (2024-05-20T18:52:33Z) - An Empirical analysis on Transparent Algorithmic Exploration in
Recommender Systems [17.91522677924348]
提案手法は, 従来のミックスイン手法と比較し, 従来の評価手法と比較する。
以上の結果から,ユーザからのフィードバックは,インターフェースによる探索のために選択された項目の方がはるかに多いことが示唆された。
論文 参考訳(メタデータ) (2021-07-31T05:08:29Z) - Offline Meta-level Model-based Reinforcement Learning Approach for
Cold-Start Recommendation [27.17948754183511]
強化学習は、リコメンデータシステムに対する長期的なユーザの関心を最適化する上で大きな可能性を秘めている。
既存のRLベースのレコメンデーション手法では、ユーザが堅牢なレコメンデーションポリシーを学ぶために、多数のインタラクションが必要である。
本稿では,ユーザ適応の高速化を目的としたメタレベルモデルに基づく強化学習手法を提案する。
論文 参考訳(メタデータ) (2020-12-04T08:58:35Z) - Reward Constrained Interactive Recommendation with Natural Language
Feedback [158.8095688415973]
制約強化強化学習(RL)フレームワークを提案する。
具体的には,ユーザの過去の嗜好に反するレコメンデーションを検出するために,識別器を利用する。
提案するフレームワークは汎用的であり,制約付きテキスト生成のタスクにさらに拡張されている。
論文 参考訳(メタデータ) (2020-05-04T16:23:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。