論文の概要: RAH! RecSys-Assistant-Human: A Human-Central Recommendation Framework
with Large Language Models
- arxiv url: http://arxiv.org/abs/2308.09904v1
- Date: Sat, 19 Aug 2023 04:46:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-22 19:20:25.359317
- Title: RAH! RecSys-Assistant-Human: A Human-Central Recommendation Framework
with Large Language Models
- Title(参考訳): RAH!
RecSys-Assistant-Human: 大規模言語モデルを用いた人間中心のレコメンデーションフレームワーク
- Authors: Yubo Shu, Hansu Gu, Peng Zhang, Haonan Zhang, Tun Lu, Dongsheng Li,
Ning Gu
- Abstract要約: 我々は、RAHというより人中心的な推薦フレームワークを提案する。
RAHはRecommenderシステム、Assistant、Humanで構成されている。
RAHフレームワークは、異なるレコメンデータシステムやユーザグループに適応することができる。
- 参考スコア(独自算出の注目度): 30.250555783628762
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The recommendation ecosystem involves interactions between recommender
systems(Computer) and users(Human). Orthogonal to the perspective of
recommender systems, we attempt to utilize LLMs from the perspective of users
and propose a more human-central recommendation framework named RAH, which
consists of Recommender system, Assistant and Human. The assistant is a
LLM-based and personal proxy for a human to achieve user satisfaction. The
assistant plays a non-invasion role and the RAH framework can adapt to
different recommender systems and user groups. Subsequently, we implement and
evaluate the RAH framework for learning user personalities and proxy human
feedback. The experiment shows that (1) using learn-action-critic and
reflection mechanisms can lead more aligned personality and (2) our assistant
can effectively proxy human feedback and help adjust recommender systems.
Finally, we discuss further strategies in the RAH framework to address
human-central concerns including user control, privacy and fairness.
- Abstract(参考訳): レコメンデーションエコシステムには、レコメンデーションシステム(コンピュータ)とユーザ(Human)のインタラクションが含まれる。
本稿では,レコメンダシステムの観点から,ユーザの視点からLLMを活用し,Recommenderシステム,Assistant,Humanで構成される,より人中心的なレコメンデーションフレームワークRAHを提案する。
アシスタントは、人間の満足度を達成するためのLLMベースのパーソナルプロキシである。
アシスタントは非侵入の役割を担い、RAHフレームワークは異なる推奨システムやユーザグループに適応できる。
その後、ユーザの個性を学習し、人間のフィードバックをプロキシするためのRAHフレームワークを実装し、評価する。
実験の結果,(1)学習行動批判機構と反射機構を用いることで,人格の整合性が向上し,(2)人間のフィードバックを効果的にプロキシし,レコメンダシステムの調整に役立てることができることがわかった。
最後に,RAHフレームワークにおけるユーザコントロールやプライバシ,公平性など,人中心的な問題に対処するためのさらなる戦略について論じる。
関連論文リスト
- Uncertain Multi-Objective Recommendation via Orthogonal Meta-Learning Enhanced Bayesian Optimization [30.031396809114625]
本稿では,ルールベースの精度駆動システムから行動認識,不確実な多目的RSに至るまで,RSの自律性を5つの異なるレベルに分類する新しい枠組みを提案する。
個人の好みに基づいて複数の目的を動的に識別し、最適化し、より倫理的でインテリジェントなユーザー中心のレコメンデーションを促進するアプローチを提案する。
論文 参考訳(メタデータ) (2025-02-18T08:10:09Z) - Reason4Rec: Large Language Models for Recommendation with Deliberative User Preference Alignment [69.11529841118671]
本稿では,ユーザの嗜好に関する明確な推論を新たなアライメント目標として組み込んだ,新たなDeliberative Recommendationタスクを提案する。
次にReasoningを利用したRecommenderフレームワークを導入する。
論文 参考訳(メタデータ) (2025-02-04T07:17:54Z) - The 1st Workshop on Human-Centered Recommender Systems [27.23807230278776]
このワークショップは、研究者が人間中心のレコメンダシステムを開発するためのプラットフォームを提供することを目的としている。
HCRSは、設計と運用の中心にある人間の要求、価値観、能力を優先するレコメンデーターシステムを作成することを指す。
このワークショップには、堅牢性、プライバシー、透明性、公正性、多様性、説明責任、倫理的考慮事項、ユーザフレンドリーなデザインなど、トピックスを含めるが制限されない。
論文 参考訳(メタデータ) (2024-11-22T06:46:41Z) - Navigating User Experience of ChatGPT-based Conversational Recommender Systems: The Effects of Prompt Guidance and Recommendation Domain [15.179413273734761]
本研究では,プロンプトガイダンス(PG)とレコメンデーションドメイン(RD)がシステム全体のユーザエクスペリエンスに与える影響について検討する。
その結果,PGはシステムの説明可能性,適応性,使いやすさ,透明性を著しく向上させることができることがわかった。
論文 参考訳(メタデータ) (2024-05-22T11:49:40Z) - Ensuring User-side Fairness in Dynamic Recommender Systems [37.20838165555877]
本稿では,動的レコメンデーションシステムにおけるユーザ側の公正性を保証するための第一原理的な研究について述べる。
本稿では,FAir Dynamic rEcommender (FADE)を提案する。
FADEは、全体的なレコメンデーション性能を犠牲にすることなく、性能格差を効果的かつ効率的に低減することを示す。
論文 参考訳(メタデータ) (2023-08-29T22:03:17Z) - Editable User Profiles for Controllable Text Recommendation [66.00743968792275]
制御可能なテキストレコメンデーションのための新しい概念値ボトルネックモデル LACE を提案する。
LACEは、人間の読みやすい概念の簡潔なセットで各ユーザーを表現する。
ユーザ文書に基づいて概念のパーソナライズされた表現を学習する。
論文 参考訳(メタデータ) (2023-04-09T14:52:18Z) - Breaking Feedback Loops in Recommender Systems with Causal Inference [99.22185950608838]
近年の研究では、フィードバックループが推奨品質を損なう可能性があり、ユーザの振る舞いを均質化している。
本稿では、因果推論を用いてフィードバックループを確実に破壊するアルゴリズムCAFLを提案する。
従来の補正手法と比較して,CAFLは推奨品質を向上することを示す。
論文 参考訳(メタデータ) (2022-07-04T17:58:39Z) - Choosing the Best of Both Worlds: Diverse and Novel Recommendations
through Multi-Objective Reinforcement Learning [68.45370492516531]
本稿では,Recommender Systems (RS) 設定のための拡張多目的強化学習(SMORL)を紹介する。
SMORLエージェントは、標準レコメンデーションモデルを拡張し、RLレイヤーを追加し、3つの主要な目的(正確性、多様性、新しいレコメンデーション)を同時に満たすように強制する。
実世界の2つのデータセットに対する実験結果から,集約的多様性の顕著な増加,精度の適度な向上,レコメンデーションの反復性の低下,および相補的目的としての多様性と新規性の強化の重要性が示された。
論文 参考訳(メタデータ) (2021-10-28T13:22:45Z) - Offline Meta-level Model-based Reinforcement Learning Approach for
Cold-Start Recommendation [27.17948754183511]
強化学習は、リコメンデータシステムに対する長期的なユーザの関心を最適化する上で大きな可能性を秘めている。
既存のRLベースのレコメンデーション手法では、ユーザが堅牢なレコメンデーションポリシーを学ぶために、多数のインタラクションが必要である。
本稿では,ユーザ適応の高速化を目的としたメタレベルモデルに基づく強化学習手法を提案する。
論文 参考訳(メタデータ) (2020-12-04T08:58:35Z) - Self-Supervised Reinforcement Learning for Recommender Systems [77.38665506495553]
逐次リコメンデーションタスクのための自己指導型強化学習を提案する。
提案手法は,2つの出力層を持つ標準レコメンデーションモデルを強化する。
このようなアプローチに基づいて、自己監督型Q-ラーニング(SQN)と自己監督型アクター・クライブ(SAC)という2つのフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-10T11:18:57Z) - Reward Constrained Interactive Recommendation with Natural Language
Feedback [158.8095688415973]
制約強化強化学習(RL)フレームワークを提案する。
具体的には,ユーザの過去の嗜好に反するレコメンデーションを検出するために,識別器を利用する。
提案するフレームワークは汎用的であり,制約付きテキスト生成のタスクにさらに拡張されている。
論文 参考訳(メタデータ) (2020-05-04T16:23:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。