論文の概要: CreAgent: Towards Long-Term Evaluation of Recommender System under Platform-Creator Information Asymmetry
- arxiv url: http://arxiv.org/abs/2502.07307v1
- Date: Tue, 11 Feb 2025 07:09:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-12 14:05:40.274022
- Title: CreAgent: Towards Long-Term Evaluation of Recommender System under Platform-Creator Information Asymmetry
- Title(参考訳): CreAgent:Platform-Creator情報非対称性に基づくレコメンダシステムの長期評価に向けて
- Authors: Xiaopeng Ye, Chen Xu, Zhongxiang Sun, Jun Xu, Gang Wang, Zhenhua Dong, Ji-Rong Wen,
- Abstract要約: 大規模言語モデルを用いたクリエーターシミュレーションエージェントであるCreAgentを提案する。
ゲーム理論の信念機構と高速でスローな思考フレームワークを取り入れることで、CreAgentはクリエーターの振る舞いを効果的にシミュレートする。
私たちの信頼性検証実験は、CreAgentが現実世界のプラットフォームとクリエーターの行動とよく一致していることを示している。
- 参考スコア(独自算出の注目度): 55.64992650205645
- License:
- Abstract: Ensuring the long-term sustainability of recommender systems (RS) emerges as a crucial issue. Traditional offline evaluation methods for RS typically focus on immediate user feedback, such as clicks, but they often neglect the long-term impact of content creators. On real-world content platforms, creators can strategically produce and upload new items based on user feedback and preference trends. While previous studies have attempted to model creator behavior, they often overlook the role of information asymmetry. This asymmetry arises because creators primarily have access to feedback on the items they produce, while platforms possess data on the entire spectrum of user feedback. Current RS simulators, however, fail to account for this asymmetry, leading to inaccurate long-term evaluations. To address this gap, we propose CreAgent, a Large Language Model (LLM)-empowered creator simulation agent. By incorporating game theory's belief mechanism and the fast-and-slow thinking framework, CreAgent effectively simulates creator behavior under conditions of information asymmetry. Additionally, we enhance CreAgent's simulation ability by fine-tuning it using Proximal Policy Optimization (PPO). Our credibility validation experiments show that CreAgent aligns well with the behaviors between real-world platform and creator, thus improving the reliability of long-term RS evaluations. Moreover, through the simulation of RS involving CreAgents, we can explore how fairness- and diversity-aware RS algorithms contribute to better long-term performance for various stakeholders. CreAgent and the simulation platform are publicly available at https://github.com/shawnye2000/CreAgent.
- Abstract(参考訳): 推奨システム(RS)の長期持続可能性を確保することが重要な課題である。
RSの従来のオフライン評価手法は、クリックのような即時ユーザーフィードバックに重点を置いているが、コンテンツクリエーターの長期的な影響を無視することが多い。
現実世界のコンテンツプラットフォームでは、クリエイターはユーザーからのフィードバックや好みの傾向に基づいて、戦略的に新しいアイテムを作成、アップロードすることができる。
これまでの研究は創造者の振る舞いをモデル化しようと試みてきたが、情報非対称性の役割を見落としていることが多い。
この非対称性は、クリエイターが主に生成するアイテムに対するフィードバックにアクセスでき、一方プラットフォームはユーザーからのフィードバックのスペクトル全体に関するデータを持っているため生じる。
しかし、現在のRSシミュレータはこの非対称性を考慮せず、不正確な長期評価をもたらす。
このギャップに対処するため,Large Language Model (LLM) を利用したクリエーターシミュレーションエージェントであるCreAgentを提案する。
ゲーム理論の信念機構と高速でスローな思考の枠組みを取り入れることで、CreAgentは情報非対称性の条件下での創造的振る舞いを効果的にシミュレートする。
さらに,PPO (Proximal Policy Optimization) を用いて微調整することで,CreAgentのシミュレーション能力を向上する。
信頼性検証実験の結果,CreAgentは実世界のプラットフォームとクリエーターの挙動とよく一致しており,長期RS評価の信頼性が向上していることがわかった。
さらに,CreAgentsを含むRSのシミュレーションにより,多様性を考慮したRSアルゴリズムが,様々な利害関係者の長期的パフォーマンス向上にどのように貢献するかを検討することができる。
CreAgentとシミュレーションプラットフォームはhttps://github.com/shawnye2000/CreAgent.comで公開されている。
関連論文リスト
- Autonomous Vehicle Controllers From End-to-End Differentiable Simulation [60.05963742334746]
そこで我々は,AVコントローラのトレーニングにAPG(analytic Policy gradients)アプローチを適用可能なシミュレータを提案し,その設計を行う。
提案するフレームワークは, エージェントがより根底的なポリシーを学ぶのを助けるために, 環境力学の勾配を役立てる, エンド・ツー・エンドの訓練ループに, 微分可能シミュレータを組み込む。
ダイナミクスにおけるパフォーマンスとノイズに対する堅牢性の大幅な改善と、全体としてより直感的なヒューマンライクな処理が見られます。
論文 参考訳(メタデータ) (2024-09-12T11:50:06Z) - Dissecting Adversarial Robustness of Multimodal LM Agents [70.2077308846307]
我々は、VisualWebArena上に現実的な脅威モデルを用いて、200の敵タスクと評価スクリプトを手動で作成する。
我々は,クロボックスフロンティアLMを用いた最新のエージェントを,リフレクションやツリーサーチを行うエージェントを含む,壊すことに成功している。
AREを使用して、新しいコンポーネントの追加に伴うロバスト性の変化を厳格に評価しています。
論文 参考訳(メタデータ) (2024-06-18T17:32:48Z) - Investigating the Robustness of Counterfactual Learning to Rank Models: A Reproducibility Study [61.64685376882383]
ランク付け学習(CLTR: Counterfactual Learning to rank)は、IRコミュニティにおいて、ログ化された大量のユーザインタラクションデータを活用してランキングモデルをトレーニングする能力において、大きな注目を集めている。
本稿では,複雑かつ多様な状況における既存のCLTRモデルのロバスト性について検討する。
その結果, DLAモデルとIPS-DCMは, PS-PBMやPSSよりも, オフラインの確率推定による堅牢性が高いことがわかった。
論文 参考訳(メタデータ) (2024-04-04T10:54:38Z) - How Reliable is Your Simulator? Analysis on the Limitations of Current LLM-based User Simulators for Conversational Recommendation [14.646529557978512]
本稿では,対話型レコメンダシステムのためのユーザシミュレータ構築におけるLarge Language Modelsの使用制限について分析する。
会話履歴やユーザシミュレータの応答で発生するデータ漏洩は,評価結果を膨らませる結果となる。
そこで我々はSimpleUserSimを提案する。
論文 参考訳(メタデータ) (2024-03-25T04:21:06Z) - On Generative Agents in Recommendation [58.42840923200071]
Agent4Recは、Large Language Modelsに基づいたレコメンデーションのユーザーシミュレータである。
各エージェントは、ページ単位でパーソナライズされた推奨モデルと対話する。
論文 参考訳(メタデータ) (2023-10-16T06:41:16Z) - Automatic Music Playlist Generation via Simulation-based Reinforcement
Learning [17.628525710776877]
プレイリストのパーソナライズは、音楽ストリーミングサービスで一般的な機能である。
シミュレーションされたプレイリスト生成環境を用いて,ユーザの満足度を計測する強化学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-13T14:13:02Z) - Sim2Rec: A Simulator-based Decision-making Approach to Optimize
Real-World Long-term User Engagement in Sequential Recommender Systems [43.31078296862647]
逐次リコメンデータシステム(SRS)における長期ユーザエンゲージメント(LTE)最適化は強化学習(RL)に適している
RLには欠点があり、特に探索には多数のオンラインサンプルが必要である。
シミュレーション・ツー・レコメンデーション(Sim2Rec)というシミュレーターベースの推奨ポリシートレーニング手法を提案する。
論文 参考訳(メタデータ) (2023-05-03T19:21:25Z) - Towards Data-Driven Offline Simulations for Online Reinforcement
Learning [30.654163861164864]
強化学習のためのオフライン学習者シミュレーション(OLS)を形式化する。
シミュレーションの忠実度と効率を両立させる新しい評価プロトコルを提案する。
論文 参考訳(メタデータ) (2022-11-14T18:36:13Z) - Metaphorical User Simulators for Evaluating Task-oriented Dialogue
Systems [80.77917437785773]
タスク指向対話システム(TDS)は、主にオフラインまたは人間による評価によって評価される。
本稿では,エンド・ツー・エンドのTDS評価のためのメタファ型ユーザシミュレータを提案する。
また,異なる機能を持つ対話システムなどの変種を生成するためのテスタベースの評価フレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-02T05:11:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。