論文の概要: Towards Controllable Agent in MOBA Games with Generative Modeling
- arxiv url: http://arxiv.org/abs/2112.08093v1
- Date: Wed, 15 Dec 2021 13:09:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-16 19:53:40.597655
- Title: Towards Controllable Agent in MOBA Games with Generative Modeling
- Title(参考訳): 生成モデルを用いたMOBAゲームにおける制御可能なエージェントを目指して
- Authors: Shubao Zhang
- Abstract要約: 我々は,人間のように振る舞うアクション制御可能なエージェントを開発するための新しい手法を提案する。
トレーニングエージェントのための潜時アライメントニューラルネットワークモデルと、エージェントの動作を制御するための対応するサンプリングアルゴリズムを考案する。
ゲーム『Honor of Kings』におけるシミュレーションおよびオンライン実験は、提案手法の有効性を実証している。
- 参考スコア(独自算出の注目度): 0.45687771576879593
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose novel methods to develop action controllable agent that behaves
like a human and has the ability to align with human players in Multiplayer
Online Battle Arena (MOBA) games. By modeling the control problem as an action
generation process, we devise a deep latent alignment neural network model for
training agent, and a corresponding sampling algorithm for controlling an
agent's action. Particularly, we propose deterministic and stochastic attention
implementations of the core latent alignment model. Both simulated and online
experiments in the game Honor of Kings demonstrate the efficacy of the proposed
methods.
- Abstract(参考訳): 本稿では,マルチプレイヤーオンラインバトルアリーナ(moba)ゲームにおいて,人間のように行動し,人間と協調する能力を有するアクションコントロール可能なエージェントを開発するための新しい手法を提案する。
制御問題を行動生成過程としてモデル化することにより,学習エージェントのための深い潜在アライメントニューラルネットワークモデルと,エージェントの動作を制御するための対応するサンプリングアルゴリズムを考案する。
特に,コア潜在アライメントモデルの決定論的・確率的注意実装を提案する。
キングズ名誉ゲームにおけるシミュレーションおよびオンライン実験は,提案手法の有効性を実証するものである。
関連論文リスト
- Mastering the Game of Guandan with Deep Reinforcement Learning and
Behavior Regulating [16.718186690675164]
我々は,グアンダンのゲームをマスターするAIエージェントのためのフレームワークGuanZeroを提案する。
本論文の主な貢献は、注意深く設計されたニューラルネットワーク符号化方式によるエージェントの動作の制御である。
論文 参考訳(メタデータ) (2024-02-21T07:26:06Z) - ProAgent: Building Proactive Cooperative Agents with Large Language
Models [89.53040828210945]
ProAgentは、大規模な言語モデルを利用してプロアクティブエージェントを生成する新しいフレームワークである。
ProAgentは現状を分析し、チームメイトの意図を観察から推測することができる。
ProAgentは高度なモジュール化と解釈可能性を示し、様々な調整シナリオに容易に統合できる。
論文 参考訳(メタデータ) (2023-08-22T10:36:56Z) - Controllable Motion Diffusion Model [59.52889433954535]
制御可能な運動拡散モデル(COMODO)の枠組みを提案する。
我々のフレームワークは自動回帰運動拡散モデル(A-MDM)から始まり、ステップごとに動きのシーケンスを生成する。
そこで本研究では,A-MDMモデル上での強化学習に基づく制御手法を提案する。
論文 参考訳(メタデータ) (2023-06-01T07:48:34Z) - MADiff: Offline Multi-agent Learning with Diffusion Models [82.59166059130702]
拡散モデル(DM)は,最近オフライン強化学習を含む様々なシナリオで大きな成功を収めている。
この問題に対処する新しい生成型マルチエージェント学習フレームワークであるMADiffを提案する。
本実験は,マルチエージェント学習タスクにおけるベースラインアルゴリズムと比較して,MADiffの優れた性能を示す。
論文 参考訳(メタデータ) (2023-05-27T02:14:09Z) - Promptable Game Models: Text-Guided Game Simulation via Masked Diffusion
Models [68.85478477006178]
ニューラルビデオゲームシミュレータのためのPGM(Promptable Game Model)を提案する。
ユーザーは高レベルのアクションシーケンスと低レベルのアクションシーケンスでゲームを実行することができる。
私たちのPGMは、エージェントの目標をプロンプトの形で指定することで、ディレクターのモードをアンロックします。
提案手法は,既存のニューラルビデオゲームシミュレータのレンダリング品質を著しく上回り,現在の最先端の能力を超えたアプリケーションをアンロックする。
論文 参考訳(メタデータ) (2023-03-23T17:43:17Z) - Decision-making with Speculative Opponent Models [9.553694031408424]
対向モデリングは、他のエージェントのモデルを構築することによって、制御されたエージェントの意思決定の恩恵を受けている。
そこで本研究では,純粋に局所的な情報を用いた投機的相手モデルを実現するための,マルチエージェント分布型アクター批判アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-11-22T01:29:47Z) - Training and Evaluation of Deep Policies using Reinforcement Learning
and Generative Models [67.78935378952146]
GenRLはシーケンシャルな意思決定問題を解決するためのフレームワークである。
強化学習と潜在変数生成モデルの組み合わせを利用する。
最終方針訓練の性能に最も影響を与える生成モデルの特徴を実験的に決定する。
論文 参考訳(メタデータ) (2022-04-18T22:02:32Z) - Go-Blend behavior and affect [2.323282558557423]
本稿では、感情モデリングタスクを強化学習プロセスとして見ることにより、感情コンピューティングのパラダイムシフトを提案する。
本研究では,Go-Exploreエージェントを最適にプレイし,人間の覚醒のデモンストレーションを模倣しようとすることで,アーケードゲームにおける我々のフレームワークをテストする。
論文 参考訳(メタデータ) (2021-09-24T17:04:30Z) - Moody Learners -- Explaining Competitive Behaviour of Reinforcement
Learning Agents [65.2200847818153]
競合シナリオでは、エージェントは動的環境を持つだけでなく、相手の行動に直接影響される。
エージェントのQ値の観察は通常、その振る舞いを説明する方法であるが、選択されたアクション間の時間的関係は示さない。
論文 参考訳(メタデータ) (2020-07-30T11:30:42Z) - Learning to Model Opponent Learning [11.61673411387596]
マルチエージェント強化学習(MARL: Multi-Agent Reinforcement Learning)は、一組の共存エージェントが相互とその環境と相互作用する設定を考える。
これは、通常、収束が定常環境の仮定に依存する値関数ベースのアルゴリズムにとって大きな課題となる。
我々は、モデルポンポント学習(LeMOL)と呼ばれる、対戦者の学習力学をモデル化するための新しいアプローチを開発する。
論文 参考訳(メタデータ) (2020-06-06T17:19:04Z) - Variational Autoencoders for Opponent Modeling in Multi-Agent Systems [9.405879323049659]
マルチエージェントシステムは、共有環境における複数のエージェントの相互作用から生じる複雑な振る舞いを示す。
本研究は,マルチエージェントシステムにおけるエージェントの制御に関心を持ち,ポリシーを定めているエージェントとのインタラクションをうまく学習する。
他のエージェント(反対者)の振る舞いをモデル化することは、システム内のエージェントの相互作用を理解するのに不可欠である。
論文 参考訳(メタデータ) (2020-01-29T13:38:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。