論文の概要: Large-scale User Game Lifecycle Representation Learning
- arxiv url: http://arxiv.org/abs/2510.15412v1
- Date: Fri, 17 Oct 2025 08:06:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-20 20:17:34.528803
- Title: Large-scale User Game Lifecycle Representation Learning
- Title(参考訳): 大規模ユーザゲームライフサイクル表現学習
- Authors: Yanjie Gou, Jiangming Liu, Kouying Xue, Yi Hua,
- Abstract要約: ビデオゲーム生産の急速な拡大は、オンラインゲームプラットフォームのための効果的な広告とレコメンデーションシステムの開発を必要としている。
推薦システムにおける数十億のアイテムを扱うための既存の表現学習手法は、ゲーム広告やレコメンデーションには適さない。
これは主に、数百のゲームが、大規模なユーザ表現学習に不足する、ゲームの範囲が原因である。
- 参考スコア(独自算出の注目度): 6.184454776672247
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rapid expansion of video game production necessitates the development of effective advertising and recommendation systems for online game platforms. Recommending and advertising games to users hinges on capturing their interest in games. However, existing representation learning methods crafted for handling billions of items in recommendation systems are unsuitable for game advertising and recommendation. This is primarily due to game sparsity, where the mere hundreds of games fall short for large-scale user representation learning, and game imbalance, where user behaviors are overwhelmingly dominated by a handful of popular games. To address the sparsity issue, we introduce the User Game Lifecycle (UGL), designed to enrich user behaviors in games. Additionally, we propose two innovative strategies aimed at manipulating user behaviors to more effectively extract both short and long-term interests. To tackle the game imbalance challenge, we present an Inverse Probability Masking strategy for UGL representation learning. The offline and online experimental results demonstrate that the UGL representations significantly enhance model by achieving a 1.83% AUC offline increase on average and a 21.67% CVR online increase on average for game advertising and a 0.5% AUC offline increase and a 0.82% ARPU online increase for in-game item recommendation.
- Abstract(参考訳): ビデオゲーム生産の急速な拡大は、オンラインゲームプラットフォームのための効果的な広告とレコメンデーションシステムの開発を必要としている。
ゲームをリコメンデーションしたり、広告を宣伝したりすることは、ゲームへの関心をつかむことに集中する。
しかし,レコメンデーションシステムにおける何十億ものアイテムを扱うための既存の表現学習手法は,ゲーム広告やレコメンデーションには適さない。
これは主に、数百のゲームが、大規模なユーザ表現学習や、ユーザ行動が少数の人気ゲームに圧倒的に支配されるゲーム不均衡のために、不足しているゲームである。
空間的問題に対処するため,ゲームにおけるユーザ行動の強化を目的としたユーザゲームライフサイクル(UGL)を導入する。
さらに,ユーザ行動を操作するための2つの革新的な戦略を提案し,短期的・長期的両方の利益をより効果的に抽出する。
ゲーム不均衡問題に対処するために,UGL表現学習のための逆確率マスキング戦略を提案する。
オフラインおよびオンライン実験の結果、UGL表現は平均1.83%のAUCオフライン増加、ゲーム広告の平均21.67%のCVRオンライン増加、0.5%のAUCオフライン増加、ゲーム内アイテムレコメンデーションの0.82%のARPUオンライン増加によってモデルを大幅に向上させることが示されている。
関連論文リスト
- Scalable Reinforcement Post-Training Beyond Static Human Prompts: Evolving Alignment via Asymmetric Self-Play [52.3079697845254]
evaは、オフラインとオンラインのRLポストトレーニングの両方で、言語モデルがトレーニングプロンプトを適応的に作成できるようにする最初の方法である。
我々は,エバが有効なRLキュリキュラを作成でき,アブレーションにまたがって堅牢であることを示す。
論文 参考訳(メタデータ) (2024-10-31T08:15:32Z) - Collaborative-Enhanced Prediction of Spending on Newly Downloaded Mobile Games under Consumption Uncertainty [49.431361908465036]
ラベルのばらつきと極端性を緩和する頑健なモデルトレーニングと評価フレームワークを提案する。
本フレームワークでは,ユーザIDに頼ることなく,ユーザのゲーム支出を予測するための協調型モデルを提案する。
当社のアプローチは、オフラインデータに対する注目すべき textbf17.11% の強化を実現し、プロダクションモデルよりも顕著に改善されていることを示す。
論文 参考訳(メタデータ) (2024-04-12T07:47:02Z) - A Conceptual Design of In-Game Real and Virtual Currency Tracker [0.0]
ゲーム内のバーチャル通貨は、プレイヤ間の不適切なゲーム行動や追加を起動することができる。
市場は、ユーザーの経済的、行動的、心理的な搾取を避けるために、ゲームや顧客保護の規制を欠いている。
本稿では,ゲーム内購入モジュールの概念を提示し,仮想通貨購入に関するリアルタイム支出をユーザが観察できるようにする。
論文 参考訳(メタデータ) (2024-04-05T08:34:22Z) - COURIER: Contrastive User Intention Reconstruction for Large-Scale Visual Recommendation [33.903096803803706]
我々は、既存のモダリティ機能を超えたさらなる改善のために、推奨に適した視覚的特徴事前学習法が必要であると論じる。
本研究では,行動履歴からユーザ興味に関連する視覚的特徴を抽出する効果的なユーザ意図再構築モジュールを提案する。
論文 参考訳(メタデータ) (2023-06-08T07:45:24Z) - Sequential Item Recommendation in the MOBA Game Dota 2 [64.8963467704218]
本研究では,Dota 2における購入勧告の文脈における逐次項目推薦(SIR)モデルの適用可能性について検討する。
以上の結果から,購入順序を考慮したモデルが最も有効であることが示唆された。
他のドメインとは対照的に、我々は最新のTransformerベースのアーキテクチャをDota-350kで上回るRNNベースのモデルを見つけました。
論文 参考訳(メタデータ) (2022-01-17T14:19:17Z) - An Empirical Study on the Generalization Power of Neural Representations
Learned via Visual Guessing Games [79.23847247132345]
本研究は,視覚質問応答(VQA)のような新しいNLP下流タスクにおいて,後から実行を依頼されたとき,人工エージェントが推測ゲームでどの程度の利益を得ることができるかを検討する。
提案手法は,1) エージェントがうまく推理ゲームを模倣することを学習する教師あり学習シナリオ,2) エージェントが単独でプレイする新しい方法,すなわち,反復経験学習(SPIEL)によるセルフプレイ(Self-play)を提案する。
論文 参考訳(メタデータ) (2021-01-31T10:30:48Z) - Generative Inverse Deep Reinforcement Learning for Online Recommendation [62.09946317831129]
オンラインレコメンデーションのための新しい逆強化学習手法InvRecを提案する。
InvRecは、オンラインレコメンデーションのために、ユーザの行動から報酬関数を自動的に抽出する。
論文 参考訳(メタデータ) (2020-11-04T12:12:25Z) - Deep Reinforcement Learning for FlipIt Security Game [2.0624765454705654]
本稿では,エージェントが対戦者の異なるクラスに適応し,最適な対ストラテジーを学習する深層学習モデルについて述べる。
FlipItは、プレイヤー、攻撃者、ディフェンダーの双方が共有リソースの所有権を競う2人プレイのセキュリティゲームです。
我々のモデルは、Qラーニングと組み合わせたディープニューラルネットワークであり、リソースの所有時間の最大化のために訓練されている。
論文 参考訳(メタデータ) (2020-02-28T18:26:24Z) - Disentangling Controllable Object through Video Prediction Improves
Visual Reinforcement Learning [82.25034245150582]
多くの視覚に基づく強化学習問題において、エージェントは視野内の可動物体を制御する。
制御可能なオブジェクトを観測信号から切り離すためのエンドツーエンド学習フレームワークを提案する。
不整合表現は、RLがエージェントに追加の観察チャネルとして有用であることが示されている。
論文 参考訳(メタデータ) (2020-02-21T05:43:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。