論文の概要: Using Machine Learning to Predict Game Outcomes Based on Player-Champion
Experience in League of Legends
- arxiv url: http://arxiv.org/abs/2108.02799v1
- Date: Thu, 5 Aug 2021 18:03:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-10 02:39:29.407512
- Title: Using Machine Learning to Predict Game Outcomes Based on Player-Champion
Experience in League of Legends
- Title(参考訳): リーグ・オブ・レジェンドにおけるプレイヤーチャンピオン体験に基づく機械学習によるゲーム成績予測
- Authors: Tiffany D. Do, Seong Ioi Wang, Dylan S. Yu, Matthew G. McMillian, Ryan
P. McMahan
- Abstract要約: 本稿では,リーグ・オブ・レジェンド(LoL)ゲームにおいて,プレイヤーが選択したチャンピオンに対して経験した経験に基づいてゲーム結果を予測する手法を提案する。
ディープニューラルネットワークを用いて、すべてのプレイヤーがチャンピオンを選択した後、ゲームの結果を75.1%の精度で予測できることを発見した。
- 参考スコア(独自算出の注目度): 0.13124513975412253
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: League of Legends (LoL) is the most widely played multiplayer online battle
arena (MOBA) game in the world. An important aspect of LoL is competitive
ranked play, which utilizes a skill-based matchmaking system to form fair
teams. However, players' skill levels vary widely depending on which champion,
or hero, that they choose to play as. In this paper, we propose a method for
predicting game outcomes in ranked LoL games based on players' experience with
their selected champion. Using a deep neural network, we found that game
outcomes can be predicted with 75.1% accuracy after all players have selected
champions, which occurs before gameplay begins. Our results have important
implications for playing LoL and matchmaking. Firstly, individual champion
skill plays a significant role in the outcome of a match, regardless of team
composition. Secondly, even after the skill-based matchmaking, there is still a
wide variance in team skill before gameplay begins. Finally, players should
only play champions that they have mastered, if they want to win games.
- Abstract(参考訳): リーグ・オブ・レジェンド(League of Legends)は、世界最多のマルチプレイヤーオンラインバトルアリーナ(MOBA)ゲームである。
LoLの重要な側面は、スキルベースのマッチメイキングシステムを使用してフェアチームを形成する、競争力のあるランキングプレイである。
しかし、プレイヤーのスキルレベルは、どのチャンピオンやヒーローを選ぶかによって大きく異なる。
本稿では,選択したチャンピオンとの体験に基づいて,ランク付けされたlolゲームにおけるゲーム結果を予測する手法を提案する。
ディープニューラルネットワークを用いて、ゲームプレイ開始前に全てのプレイヤーがチャンピオンを選択した後、ゲーム結果が75.1%の精度で予測できることを発見した。
この結果は,LoLとマッチメイキングに重要な意味を持つ。
まず、個々のチャンピオンスキルは、チーム構成に関係なく、試合の結果において重要な役割を果たす。
第二に、スキルベースのマッチメイキングの後にも、ゲームが始まる前にチームのスキルには大きなばらつきがある。
最後に、プレイヤーは、ゲームに勝ちたい場合、マスターしたチャンピオンのみをプレイすべきである。
関連論文リスト
- People use fast, goal-directed simulation to reason about novel games [75.25089384921557]
我々は,シンプルだが斬新なコネクテッドnスタイルのボードゲームについて,人々がどう考えるかを研究する。
ゲームがどんなに公平か、そしてどんなに楽しいのかを、ごくわずかな経験から判断するよう、私たちは人々に求めます。
論文 参考訳(メタデータ) (2024-07-19T07:59:04Z) - QuickSkill: Novice Skill Estimation in Online Multiplayer Games [19.364132825629465]
現在のマッチメイキングレーティングアルゴリズムは、新しいプレイヤーの真のスキルを学ぶために、かなりの量のゲームを必要とする。
これはマッチングレーティングアルゴリズムの'コールドスタート'問題として知られている。
本稿では,ディープラーニングに基づく初心者スキル推定フレームワークQuickSKillを提案する。
論文 参考訳(メタデータ) (2022-08-15T11:59:05Z) - GCN-WP -- Semi-Supervised Graph Convolutional Networks for Win
Prediction in Esports [84.55775845090542]
本稿では,グラフ畳み込みネットワークに基づくエスポートに対する半教師付き勝利予測モデルを提案する。
GCN-WPはマッチとプレーヤに関する30以上の機能を統合し、近隣のゲームを分類するためにグラフ畳み込みを使用している。
本モデルは,LLの機械学習やスキル評価モデルと比較して,最先端の予測精度を実現する。
論文 参考訳(メタデータ) (2022-07-26T21:38:07Z) - DraftRec: Personalized Draft Recommendation for Winning in Multi-Player
Online Battle Arena Games [25.615312782084455]
本稿では,マルチプレイヤーオンラインバトルアリーナ(MOBA)ゲームのためのパーソナライズされたキャラクターレコメンデーションシステムを提案する。
本稿では,各プレイヤーのチャンピオン選好とプレイヤー間の相互作用を考慮し,キャラクターを推薦する新しい階層モデルであるDraftRecを提案する。
私たちは、手作業で集めた280,000試合のレジェンドと、一般公開されている5万試合のDota2からモデルをトレーニングし、評価します。
論文 参考訳(メタデータ) (2022-04-27T07:46:17Z) - Sequential Item Recommendation in the MOBA Game Dota 2 [64.8963467704218]
本研究では,Dota 2における購入勧告の文脈における逐次項目推薦(SIR)モデルの適用可能性について検討する。
以上の結果から,購入順序を考慮したモデルが最も有効であることが示唆された。
他のドメインとは対照的に、我々は最新のTransformerベースのアーキテクチャをDota-350kで上回るRNNベースのモデルを見つけました。
論文 参考訳(メタデータ) (2022-01-17T14:19:17Z) - Bandit Modeling of Map Selection in Counter-Strike: Global Offensive [55.41644538483948]
Counter-Strike: Global Offensive (CSGO) では、2つのチームが最初にマップ(仮想世界)を選択して禁止する。
CSGOにおける地図選択の問題に対処し、チームの選択や意思決定の禁止を調査するための文脈的帯域幅の枠組みを導入する。
選択と禁止の両方に関して、チームは最適なマップ選択ポリシーを持っています。
また,バンディット環境では検討されていない報奨制度のアプローチも定義し,報奨制度の導入によってモデル性能が向上することが確認された。
論文 参考訳(メタデータ) (2021-06-14T23:47:36Z) - ELO System for Skat and Other Games of Chance [1.3706331473063877]
ELOランキングシステムは、ゼロサムゲームにおけるプレイヤーの相対スキルレベルを計算する信頼できる方法であることが証明されています。
しかし、skatやbridgeのようなトリックテイクカードゲームにおけるプレイヤーの強さの評価は明らかではない。
これらの弱点を克服するための新しいELOシステムを提案します。
論文 参考訳(メタデータ) (2021-04-07T08:30:01Z) - Which Heroes to Pick? Learning to Draft in MOBA Games with Neural
Networks and Tree Search [33.23242783135013]
最先端のドラフト手法はMOBA 5v5マッチシリーズのマルチラウンドの性質を考慮できない。
JueWuDraftというニューラルネットワークとモンテカルロ木探索に基づく新規な起草アルゴリズムを提案する。
最先端のドラフト手法と比較して,JueWuDraftの実用性と有効性を示す。
論文 参考訳(メタデータ) (2020-12-18T11:19:00Z) - Interpretable Real-Time Win Prediction for Honor of Kings, a Popular
Mobile MOBA Esport [51.20042288437171]
本研究では,2段階空間時間ネットワーク(TSSTN)を提案する。
実世界のライブストリーミングシナリオにおける実験結果と応用により,提案したTSSTNモデルは予測精度と解釈可能性の両方において有効であることが示された。
論文 参考訳(メタデータ) (2020-08-14T12:00:58Z) - Suphx: Mastering Mahjong with Deep Reinforcement Learning [114.68233321904623]
我々は、新たに導入されたいくつかの技術を用いた深層強化学習に基づいて、Suphxという名のマフジョンのためのAIを設計する。
Suphxは、安定したランクの点で、ほとんどのトップの人間プレイヤーよりも強いパフォーマンスを示している。
コンピュータプログラムがマヒョンで最上位の人間プレイヤーを上回るのは、これが初めてである。
論文 参考訳(メタデータ) (2020-03-30T16:18:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。