論文の概要: DraftRec: Personalized Draft Recommendation for Winning in Multi-Player
Online Battle Arena Games
- arxiv url: http://arxiv.org/abs/2204.12750v1
- Date: Wed, 27 Apr 2022 07:46:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-28 21:21:34.612964
- Title: DraftRec: Personalized Draft Recommendation for Winning in Multi-Player
Online Battle Arena Games
- Title(参考訳): DraftRec: マルチプレイヤーオンラインバトルアリーナゲームにおける勝利のための個人化されたドラフトレコメンデーション
- Authors: Hojoon Lee, Dongyoon Hwang, Hyunseung Kim, Byungkun Lee, Jaegul Choo
- Abstract要約: 本稿では,マルチプレイヤーオンラインバトルアリーナ(MOBA)ゲームのためのパーソナライズされたキャラクターレコメンデーションシステムを提案する。
本稿では,各プレイヤーのチャンピオン選好とプレイヤー間の相互作用を考慮し,キャラクターを推薦する新しい階層モデルであるDraftRecを提案する。
私たちは、手作業で集めた280,000試合のレジェンドと、一般公開されている5万試合のDota2からモデルをトレーニングし、評価します。
- 参考スコア(独自算出の注目度): 25.615312782084455
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents a personalized character recommendation system for
Multiplayer Online Battle Arena (MOBA) games which are considered as one of the
most popular online video game genres around the world. When playing MOBA
games, players go through a draft stage, where they alternately select a
virtual character to play. When drafting, players select characters by not only
considering their character preferences, but also the synergy and competence of
their team's character combination. However, the complexity of drafting induces
difficulties for beginners to choose the appropriate characters based on the
characters of their team while considering their own champion preferences. To
alleviate this problem, we propose DraftRec, a novel hierarchical model which
recommends characters by considering each player's champion preferences and the
interaction between the players. DraftRec consists of two networks: the player
network and the match network. The player network captures the individual
player's champion preference, and the match network integrates the complex
relationship between the players and their respective champions. We train and
evaluate our model from a manually collected 280,000 matches of League of
Legends and a publicly available 50,000 matches of Dota2. Empirically, our
method achieved state-of-the-art performance in character recommendation and
match outcome prediction task. Furthermore, a comprehensive user survey
confirms that DraftRec provides convincing and satisfying recommendations. Our
code and dataset are available at https://github.com/dojeon-ai/DraftRec.
- Abstract(参考訳): 本稿では,moba(multiplayer online battle arena)ゲームに対するパーソナライズされたキャラクタレコメンデーションシステムについて述べる。
MOBAゲームでは、プレイヤーはドラフトステージを通過し、仮想キャラクターを交互に選択する。
ドラフトでは、プレイヤーはキャラクターの好みだけでなく、チームのキャラクターの組み合わせの相乗効果と能力も考慮してキャラクターを選択する。
しかし、草案作成の複雑さは、初心者が自己のチャンピオン選好を考慮しつつ、チームのキャラクターに基づいて適切なキャラクターを選択するのを困難にさせる。
そこで本稿では,各プレイヤーのチャンピオン選好とプレイヤー間のインタラクションを考慮し,キャラクターを推薦する新しい階層モデルである draftrec を提案する。
DraftRecはプレイヤーネットワークとマッチネットワークの2つのネットワークで構成されている。
プレイヤーネットワークは個々のプレイヤーのチャンピオン選好をキャプチャし、マッチネットワークはプレイヤーとそれぞれのチャンピオンの間の複雑な関係を統合する。
我々は,手作業で収集した280,000試合のleague of legendsと5万試合のdota2からモデルをトレーニングし,評価した。
提案手法は,キャラクタレコメンデーションおよびマッチング結果予測タスクにおいて,最先端の性能を達成した。
さらに、総合的なユーザ調査では、DraftRecが説得力があり満足できるレコメンデーションを提供していることが確認されている。
私たちのコードとデータセットはhttps://github.com/dojeon-ai/draftrecで利用可能です。
関連論文リスト
- Multi-agent Multi-armed Bandits with Stochastic Sharable Arm Capacities [69.34646544774161]
我々は、各アームへのリクエストの到着とプレイヤーへのリクエストの割り当てポリシーをキャプチャするマルチプレイヤーマルチアーム・バンディット(MAB)モデルの新しいバリエーションを定式化する。
課題は、プレイヤーが最適な腕引きプロファイルに従って腕を選択するように分散学習アルゴリズムを設計する方法である。
我々は,Mラウンドのみの最適腕引きプロファイルにおいて,プレイヤーがコンセンサスに達することを保証した反復分散アルゴリズムを設計する。
論文 参考訳(メタデータ) (2024-08-20T13:57:00Z) - All by Myself: Learning Individualized Competitive Behaviour with a
Contrastive Reinforcement Learning optimization [57.615269148301515]
競争ゲームのシナリオでは、エージェントのセットは、彼らの目標を最大化し、敵の目標を同時に最小化する決定を学習する必要があります。
本稿では,競争ゲームの表現を学習し,特定の相手の戦略をどうマップするか,それらを破壊するかを学習する3つのニューラルネットワーク層からなる新しいモデルを提案する。
我々の実験は、オフライン、オンライン、競争特化モデル、特に同じ対戦相手と複数回対戦した場合に、我々のモデルがより良いパフォーマンスを達成することを示した。
論文 参考訳(メタデータ) (2023-10-02T08:11:07Z) - Action2Score: An Embedding Approach To Score Player Action [4.383011485317949]
ほとんどのマルチプレイヤーオンラインバトルアリーナ(MOBA)ゲームでは、プレイヤーのランクは試合結果(勝敗)によって決定される。
本稿では,選手のアクションを,各アクションのチーム勝利への貢献に基づいて定量的スコアに変換する新しい埋め込みモデルを提案する。
我々のモデルは、チームマッチで機能する新しい損失関数を持つシーケンスベースのディープラーニングモデルを用いて構築されている。
論文 参考訳(メタデータ) (2022-07-21T04:23:14Z) - Sequential Item Recommendation in the MOBA Game Dota 2 [64.8963467704218]
本研究では,Dota 2における購入勧告の文脈における逐次項目推薦(SIR)モデルの適用可能性について検討する。
以上の結果から,購入順序を考慮したモデルが最も有効であることが示唆された。
他のドメインとは対照的に、我々は最新のTransformerベースのアーキテクチャをDota-350kで上回るRNNベースのモデルを見つけました。
論文 参考訳(メタデータ) (2022-01-17T14:19:17Z) - Bayesian Learning of Play Styles in Multiplayer Video Games [0.0]
オンラインマルチプレイヤーゲームBattlefield 3の階層的ベイズ回帰手法を開発した。
私たちはバトルフィールド3プレーヤーのサンプルの中で共通のプレースタイルを発見します。
総合的なハイパフォーマンスを示すプレイヤーのグループと、特定のゲームタイプ、マップ、ロールで特によく演奏するプレイヤーのグループを見つけます。
論文 参考訳(メタデータ) (2021-12-14T14:48:24Z) - Player Modeling using Behavioral Signals in Competitive Online Games [4.168733556014873]
本稿では,マッチング作成のためのプレイヤーのモデリングにおいて,演奏行動の異なる側面に対処することの重要性に焦点をあてる。
75,000以上のバトルロイヤルマッチのデータセットからいくつかの行動特性を設計し、プレイヤーモデルを作成しました。
次に、作成したモデルを使用して、データ内のさまざまなプレイヤーのグループのランクを予測します。
論文 参考訳(メタデータ) (2021-11-29T22:53:17Z) - L2E: Learning to Exploit Your Opponent [66.66334543946672]
本稿では,暗黙的対向モデリングのための新しい学習フレームワークを提案する。
L2Eは、トレーニング中に異なる相手との対話によって、相手を悪用する能力を取得する。
本稿では, 対戦相手を自動的に生成する新しい対戦相手戦略生成アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-18T14:27:59Z) - Which Heroes to Pick? Learning to Draft in MOBA Games with Neural
Networks and Tree Search [33.23242783135013]
最先端のドラフト手法はMOBA 5v5マッチシリーズのマルチラウンドの性質を考慮できない。
JueWuDraftというニューラルネットワークとモンテカルロ木探索に基づく新規な起草アルゴリズムを提案する。
最先端のドラフト手法と比較して,JueWuDraftの実用性と有効性を示す。
論文 参考訳(メタデータ) (2020-12-18T11:19:00Z) - CRICTRS: Embeddings based Statistical and Semi Supervised Cricket Team
Recommendation System [6.628230604022489]
クリケットのためのチームレコメンデーションシステムを構築するための半教師付き統計手法を提案する。
我々は,対戦相手の強みを考慮した質的,定量的な評価システムを設計し,演奏者のパフォーマンスを評価する。
また、チーム内の打者やボーラーの数を含むチーム構成の重要な側面にも取り組みます。
論文 参考訳(メタデータ) (2020-10-26T15:35:44Z) - Faster Algorithms for Optimal Ex-Ante Coordinated Collusive Strategies
in Extensive-Form Zero-Sum Games [123.76716667704625]
我々は,不完全情報ゼロサム拡張形式ゲームにおいて,対戦相手と対決する2人の選手のチームにとって最適な戦略を見つけることの課題に焦点をあてる。
この設定では、チームができる最善のことは、ゲーム開始時の関節(つまり相関した)確率分布から潜在的にランダム化された戦略(プレイヤー1人)のプロファイルをサンプリングすることである。
各プロファイルにランダム化されるのはチームメンバーの1人だけであるプロファイルのみを用いることで、そのような最適な分布を計算するアルゴリズムを提供する。
論文 参考訳(メタデータ) (2020-09-21T17:51:57Z) - Learning to Play Sequential Games versus Unknown Opponents [93.8672371143881]
学習者が最初にプレーするゲームと、選択した行動に反応する相手との連続的なゲームについて考察する。
対戦相手の対戦相手列と対戦する際,学習者に対して新しいアルゴリズムを提案する。
我々の結果には、相手の反応の正則性に依存するアルゴリズムの後悔の保証が含まれている。
論文 参考訳(メタデータ) (2020-07-10T09:33:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。