論文の概要: Sequential Recommendation in Online Games with Multiple Sequences, Tasks
and User Levels
- arxiv url: http://arxiv.org/abs/2102.06950v1
- Date: Sat, 13 Feb 2021 16:02:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-16 15:31:38.403427
- Title: Sequential Recommendation in Online Games with Multiple Sequences, Tasks
and User Levels
- Title(参考訳): 複数のシーケンス、タスク、ユーザーレベルを持つオンラインゲームにおけるシーケンス推奨
- Authors: Si Chen, Yuqiu Qian, Hui Li, Chen Lin
- Abstract要約: テンセントゲームプラットフォームにおいて,複数のシーケンス,複数のタスク,複数のユーザレベル(m$3$recと略される)に対する新しい逐次レコメンデーションモデルを導入する。
グラフニューラルネットワークとマルチタスク学習を利用してM$3$Recを設計し、不均一なシーケンシャルレコメンデーションシナリオにおける複雑な情報をモデル化する。
Tencent Gamesプラットフォームの3つのオンラインゲームにおけるM$3$Recの有効性を、オフラインおよびオンライン評価の両方で検証する。
- 参考スコア(独自算出の注目度): 21.267063186828835
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Online gaming is a multi-billion-dollar industry, which is growing faster
than ever before. Recommender systems (RS) for online games face unique
challenges since they must fulfill players' distinct desires, at different user
levels, based on their action sequences of various action types. Although many
sequential RS already exist, they are mainly single-sequence, single-task, and
single-user-level. In this paper, we introduce a new sequential recommendation
model for multiple sequences, multiple tasks, and multiple user levels
(abbreviated as M$^3$Rec) in Tencent Games platform, which can fully utilize
complex data in online games. We leverage Graph Neural Network and multi-task
learning to design M$^3$Rec in order to model the complex information in the
heterogeneous sequential recommendation scenario of Tencent Games. We verify
the effectiveness of M$^3$Rec on three online games of Tencent Games platform,
in both offline and online evaluations. The results show that M$^3$Rec
successfully addresses the challenges of recommendation in online games, and it
generates superior recommendations compared with state-of-the-art sequential
recommendation approaches.
- Abstract(参考訳): オンラインゲームは、これまでにない速さで成長している数十億ドルの業界です。
オンラインゲーム用のレコメンダシステム(RS)は、様々なアクションタイプのアクションシーケンスに基づいて、異なるユーザーレベルでプレイヤーの異なる欲求を満たす必要があるため、ユニークな課題に直面している。
シーケンシャルRSは存在するが、主にシングルシーケンス、シングルタスク、シングルユーザーレベルである。
本論文では、オンラインゲームにおける複雑なデータをフル活用できるTencent Gamesプラットフォームにおいて、複数シーケンス、複数タスク、複数ユーザレベル(M$^3$Recと略される)に対する新しいシーケンシャルレコメンデーションモデルについて紹介する。
私たちはGraph Neural Networkとマルチタスク学習を利用してM$^3$Recを設計し、Tencent Gamesの異種シーケンシャルレコメンデーションシナリオにおける複雑な情報をモデル化します。
Tencent Gamesプラットフォームの3つのオンラインゲームにおけるM$^3$Recの有効性を、オフラインおよびオンライン評価の両方で検証する。
その結果、M$^3$Recはオンラインゲームにおけるレコメンデーションの課題にうまく対処し、最新のシーケンシャルレコメンデーションアプローチと比較して優れたレコメンデーションを生成します。
関連論文リスト
- Imperfect-Recall Games: Equilibrium Concepts and Their Complexity [74.01381499760288]
エージェントが以前保持していた情報を忘れたとき、不完全なリコールの下で最適な意思決定を行う。
不完全なリコールを伴う広範囲形式のゲームフレームワークにおいて、マルチプレイヤー設定における平衡を求める際の計算複雑性を解析する。
論文 参考訳(メタデータ) (2024-06-23T00:27:28Z) - MultiSlot ReRanker: A Generic Model-based Re-Ranking Framework in
Recommendation Systems [6.0232112783722]
本稿では,汎用モデルに基づくリグレードフレームワークであるMultiSlot ReRankerを提案し,その妥当性,多様性,鮮度を同時に最適化する。
我々は,OpenAI GymをRayフレームワークに統合したマルチスロットリグレードシミュレータを構築した。
論文 参考訳(メタデータ) (2024-01-11T23:17:07Z) - Diffusion Augmentation for Sequential Recommendation [47.43402785097255]
本稿では,より高品質な生成のためのDiffuASR(Diffusion Augmentation for Sequential Recommendation)を提案する。
DiffuASRによる強化データセットは、複雑なトレーニング手順なしで、シーケンシャルレコメンデーションモデルを直接トレーニングするために使用することができる。
3つの逐次レコメンデーションモデルを用いた3つの実世界のデータセットに関する広範な実験を行った。
論文 参考訳(メタデータ) (2023-09-22T13:31:34Z) - Three-Player Game Training Dynamics [77.34726150561087]
単純化されたバイリニアスムースゲームの拡張版を用いて,3人プレイヤゲームトレーニングのダイナミクスを探索する。
ほとんどの場合、三線型ゲームはナッシュ均衡に収束しない。
更新と同時更新の交互化に加えて,新たな更新順序--maximizer-first-を探索する。
論文 参考訳(メタデータ) (2022-08-12T23:57:44Z) - No-Regret Learning in Time-Varying Zero-Sum Games [99.86860277006318]
固定ゼロサムゲームにおける繰り返しプレイからの学習は、ゲーム理論とオンライン学習における古典的な問題である。
提案手法は,3つの性能基準の下で,良好な保証を同時に享受できる1つのパラメータフリーアルゴリズムである。
本アルゴリズムは,ある特性を満たすブラックボックスベースラーナー群に対するメタアルゴリズムを用いた2層構造に基づく。
論文 参考訳(メタデータ) (2022-01-30T06:10:04Z) - Can Reinforcement Learning Find Stackelberg-Nash Equilibria in
General-Sum Markov Games with Myopic Followers? [156.5760265539888]
我々は,マルチプレイヤーのジェネラルサムマルコフゲームについて,リーダーに指名されたプレイヤーとフォロワーに指名されたプレイヤーの1人を用いて研究した。
そのようなゲームに対して、我々のゴールは、政策対 $(pi*, nu*)$ であるスタックルバーグ・ナッシュ均衡 (SNE) を見つけることである。
オンラインとオフラインの両方でSNEを解くために,サンプル効率強化学習(RL)アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-12-27T05:41:14Z) - Adversarial Online Learning with Variable Plays in the Pursuit-Evasion
Game: Theoretical Foundations and Application in Connected and Automated
Vehicle Cybersecurity [5.9774834479750805]
対戦型・非確率型マルチアームバンディット(MPMAB)は,演奏するアームの数が変動している場合に拡張する。
この作業は、相互接続された輸送システムにおいて、異なる重要な場所をスキャンするために割り当てられたリソースが、時間とともに、環境によって動的に変化するという事実によって動機付けられている。
論文 参考訳(メタデータ) (2021-10-26T23:09:42Z) - Model-Free Learning for Two-Player Zero-Sum Partially Observable Markov
Games with Perfect Recall [34.73929457960903]
本研究では,不完全情報ゲーム(IIG)におけるナッシュ均衡(NE)学習の問題について,自己学習を通して検討する。
Inlicit Exploration Online Mirror Descent (IXOMD)アルゴリズムを提案する。
IXOMD は 1/sqrtT$ の NE への収束率に縛られる確率の高いモデルのないアルゴリズムである。
論文 参考訳(メタデータ) (2021-06-11T09:51:29Z) - Discovering Multi-Agent Auto-Curricula in Two-Player Zero-Sum Games [31.97631243571394]
明示的な人間設計なしに更新ルールの発見を自動化するフレームワークであるLMACを導入する。
意外なことに、人間のデザインがなくても、発見されたMARLアルゴリズムは競争力や性能が向上する。
LMAC は,例えば Kuhn Poker のトレーニングやPSRO の成績など,小型ゲームから大規模ゲームへの一般化が可能であることを示す。
論文 参考訳(メタデータ) (2021-06-04T22:30:25Z) - Learning to Play Sequential Games versus Unknown Opponents [93.8672371143881]
学習者が最初にプレーするゲームと、選択した行動に反応する相手との連続的なゲームについて考察する。
対戦相手の対戦相手列と対戦する際,学習者に対して新しいアルゴリズムを提案する。
我々の結果には、相手の反応の正則性に依存するアルゴリズムの後悔の保証が含まれている。
論文 参考訳(メタデータ) (2020-07-10T09:33:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。