論文の概要: A Fast Evolutionary adaptation for MCTS in Pommerman
- arxiv url: http://arxiv.org/abs/2111.13770v1
- Date: Fri, 26 Nov 2021 23:26:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-04 17:51:19.693261
- Title: A Fast Evolutionary adaptation for MCTS in Pommerman
- Title(参考訳): PommermanにおけるMCTSの高速な進化的適応
- Authors: Harsh Panwar, Saswata Chatterjee, Wil Dube
- Abstract要約: 本稿では,進化的モンテカルロ木探索 (FEMCTS) エージェントを提案する。
同社は、Evolutionary Algorthims (EA) と Monte Carlo Tree Search (MCTS) のアイデアを借りて、Pommerman のゲームをしている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial Intelligence, when amalgamated with games makes the ideal
structure for research and advancing the field. Multi-agent games have multiple
controls for each agent which generates huge amounts of data while increasing
search complexity. Thus, we need advanced search methods to find a solution and
create an artificially intelligent agent. In this paper, we propose our novel
Evolutionary Monte Carlo Tree Search (FEMCTS) agent which borrows ideas from
Evolutionary Algorthims (EA) and Monte Carlo Tree Search (MCTS) to play the
game of Pommerman. It outperforms Rolling Horizon Evolutionary Algorithm (RHEA)
significantly in high observability settings and performs almost as well as
MCTS for most game seeds, outperforming it in some cases.
- Abstract(参考訳): 人工知能(Artificial Intelligence)は、ゲームと融合することで、研究と分野の進歩に理想的な構造を作る。
マルチエージェントゲームはエージェントごとに複数のコントロールを持ち、検索の複雑さを高めながら大量のデータを生成する。
したがって, 解を見つけ, インテリジェントなエージェントを作成するためには, 高度な探索手法が必要である。
本稿では,進化的algorthims (ea) と monte carlo tree search (mcts) からアイデアを借用し,pommerman のゲームをプレイする,進化的モンテカルロ木探索 (femcts) エージェントを提案する。
ローリング・ホライズン進化アルゴリズム (rhea) を高い可観測性設定で大幅に上回り、ほとんどのゲーム種に対するmctとほぼ同等の性能を発揮する。
関連論文リスト
- Multi-agent Multi-armed Bandits with Stochastic Sharable Arm Capacities [69.34646544774161]
我々は、各アームへのリクエストの到着とプレイヤーへのリクエストの割り当てポリシーをキャプチャするマルチプレイヤーマルチアーム・バンディット(MAB)モデルの新しいバリエーションを定式化する。
課題は、プレイヤーが最適な腕引きプロファイルに従って腕を選択するように分散学習アルゴリズムを設計する方法である。
我々は,Mラウンドのみの最適腕引きプロファイルにおいて,プレイヤーがコンセンサスに達することを保証した反復分散アルゴリズムを設計する。
論文 参考訳(メタデータ) (2024-08-20T13:57:00Z) - AgentGym: Evolving Large Language Model-based Agents across Diverse Environments [116.97648507802926]
大規模言語モデル(LLM)はそのようなエージェントを構築するための有望な基盤と考えられている。
我々は、自己進化能力を備えた一般機能 LLM ベースのエージェントを構築するための第一歩を踏み出す。
我々はAgentGymを提案する。AgentGymは、幅広い、リアルタイム、ユニフォーマット、並行エージェント探索のための様々な環境とタスクを特徴とする新しいフレームワークである。
論文 参考訳(メタデータ) (2024-06-06T15:15:41Z) - Monte-Carlo Tree Search for Multi-Agent Pathfinding: Preliminary Results [60.4817465598352]
マルチエージェントパスフィンディングに適したモンテカルロ木探索(MCTS)のオリジナル版を紹介する。
具体的には,エージェントの目標達成行動を支援するために,個別の経路を用いる。
また,木探索手順の分岐係数を低減するために,専用の分解手法を用いる。
論文 参考訳(メタデータ) (2023-07-25T12:33:53Z) - On the Evolution of the MCTS Upper Confidence Bounds for Trees by Means
of Evolutionary Algorithms in the Game of Carcassonne [0.0]
Monte Carlo Tree Search (MCTS) は最適な決定を探索するためのサンプリング最優先の手法である。
我々は、進化的アルゴリズム(EA)を用いて、木上の信頼境界(UCT)の数学的表現に代えて、数学的表現を進化させる。
ES-MCTSコントローラは、堅牢なUCTコントローラを含む、これらの10個のインテリジェントコントローラよりも優れていることを示す。
論文 参考訳(メタデータ) (2021-12-17T18:06:21Z) - MCTS Based Agents for Multistage Single-Player Card Game [0.0]
この記事では、カードゲームLord of the RingsにおけるMonte Carlo Tree Searchアルゴリズムの使用について紹介する。
主な課題はゲーム力学の複雑さであり、各ラウンドは5つの決定段階と2つのランダムステージから構成される。
様々な意思決定アルゴリズムをテストするために,ゲームシミュレータが実装されている。
論文 参考訳(メタデータ) (2021-09-24T10:56:54Z) - Explore and Control with Adversarial Surprise [78.41972292110967]
強化学習(Reinforcement Learning, RL)は、目標指向のポリシーを学習するためのフレームワークである。
本稿では,RLエージェントが経験した驚きの量と競合する2つのポリシーを相殺する対戦ゲームに基づく,新しい教師なしRL手法を提案する。
本手法は, 明確な相転移を示すことによって, 複雑なスキルの出現につながることを示す。
論文 参考訳(メタデータ) (2021-07-12T17:58:40Z) - Monte Carlo Tree Search: A Review of Recent Modifications and
Applications [0.17205106391379024]
モンテカルロツリー検索(MCTS)は、ゲームプレイボットを設計したり、連続的な決定問題を解決するための強力なアプローチです。
この方法は、探索と搾取のバランスをとるインテリジェントな木探索に依存している。
しかし、この方法はより複雑なゲームでは最先端の技術となっている。
論文 参考訳(メタデータ) (2021-03-08T17:44:15Z) - Deep Policy Networks for NPC Behaviors that Adapt to Changing Design
Parameters in Roguelike Games [137.86426963572214]
例えばRoguelikesのようなターンベースの戦略ゲームは、Deep Reinforcement Learning(DRL)にユニークな課題を提示する。
複雑なカテゴリ状態空間をより適切に処理し、設計決定によって強制的に再訓練する必要性を緩和する2つのネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-12-07T08:47:25Z) - Monte Carlo Tree Search for a single target search game on a 2-D lattice [0.0]
このプロジェクトは、AIプレイヤーが2次元格子内で静止目標を探索するゲームを想像する。
動物捕食行動のモデルであるレヴィ飛行探索(Levi Flight Search)と比較した。
論文 参考訳(メタデータ) (2020-11-29T01:07:45Z) - Multi-Agent Collaboration via Reward Attribution Decomposition [75.36911959491228]
本稿では,StarCraftのマルチエージェントチャレンジにおいて,最先端のパフォーマンスを実現するコラボレーション型Q-ラーニング(CollaQ)を提案する。
CollaQは様々なStarCraft属性マップで評価され、既存の最先端技術よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-10-16T17:42:11Z) - Single-Agent Optimization Through Policy Iteration Using Monte-Carlo
Tree Search [8.22379888383833]
モンテカルロ・ツリー・サーチ(MCTS)と深部強化学習の組み合わせは,2プレイヤー完全情報ゲームにおける最先端の手法である。
本稿では,MCTS の変種を利用した探索アルゴリズムについて述べる。1) 潜在的に有界な報酬を持つゲームに対する新たなアクション値正規化機構,2) 効果的な探索並列化を可能にする仮想損失関数の定義,3) 世代ごとのセルフプレイによって訓練されたポリシーネットワークについて述べる。
論文 参考訳(メタデータ) (2020-05-22T18:02:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。