論文の概要: PyTAG: Tabletop Games for Multi-Agent Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2405.18123v1
- Date: Tue, 28 May 2024 12:30:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-29 18:39:08.023637
- Title: PyTAG: Tabletop Games for Multi-Agent Reinforcement Learning
- Title(参考訳): PyTAG:マルチエージェント強化学習のためのテーブルトップゲーム
- Authors: Martin Balla, George E. M. Long, James Goodman, Raluca D. Gaina, Diego Perez-Liebana,
- Abstract要約: PyTAGはTabletop Gamesフレームワークで実装されたゲーム集合とのインタラクションをサポートするフレームワークである。
ゲームプレイングエージェントの観点から、テーブルトップゲームが提供する課題と、それらが将来の研究にもたらす機会を強調します。
- 参考スコア(独自算出の注目度): 0.41942958779358663
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Modern Tabletop Games present various interesting challenges for Multi-agent Reinforcement Learning. In this paper, we introduce PyTAG, a new framework that supports interacting with a large collection of games implemented in the Tabletop Games framework. In this work we highlight the challenges tabletop games provide, from a game-playing agent perspective, along with the opportunities they provide for future research. Additionally, we highlight the technical challenges that involve training Reinforcement Learning agents on these games. To explore the Multi-agent setting provided by PyTAG we train the popular Proximal Policy Optimisation Reinforcement Learning algorithm using self-play on a subset of games and evaluate the trained policies against some simple agents and Monte-Carlo Tree Search implemented in the Tabletop Games framework.
- Abstract(参考訳): 現代卓上ゲームは多エージェント強化学習に様々な興味深い課題を提示している。
本稿では,Tabletop Gamesフレームワークで実装されたゲーム集合とのインタラクションを支援する新しいフレームワークであるPyTAGを紹介する。
この研究では、テーブルトップゲームがもたらす課題と、ゲームプレイングエージェントの観点から、将来の研究の機会を強調します。
さらに、これらのゲームで強化学習エージェントを訓練する際の技術的課題も強調する。
PyTAGが提供したマルチエージェント設定を探索するため,ゲームサブセット上でのセルフプレイを用いた人気のポリシ最適化強化学習アルゴリズムを訓練し,テーブルトップゲームフレームワークに実装されたいくつかの単純なエージェントやモンテカルロ木探索に対するトレーニングされたポリシーを評価する。
関連論文リスト
- FightLadder: A Benchmark for Competitive Multi-Agent Reinforcement Learning [25.857375787748715]
我々は、リアルタイムの格闘ゲームプラットフォームであるFightLadderを紹介し、競争力のあるMARL研究を促進する。
競争ゲームのための最先端のMARLアルゴリズムの実装と評価指標のセットを提供する。
シングルプレイヤーモードで12文字を連続的に打ち破る汎用エージェントを訓練することにより,このプラットフォームの実現可能性を示す。
論文 参考訳(メタデータ) (2024-06-04T08:04:23Z) - A Survey on Large Language Model-Based Game Agents [9.892954815419452]
ゲームエージェントの開発は、人工知能(AGI)に進む上で重要な役割を担っている
本稿では, LLMをベースとしたゲームエージェントについて, 総合的な視点から概観する。
論文 参考訳(メタデータ) (2024-04-02T15:34:18Z) - PyTAG: Challenges and Opportunities for Reinforcement Learning in
Tabletop Games [0.880802134366532]
我々は、Tabletop Gamesフレームワーク(TAG)と対話するためのPython APIであるPyTAGを紹介した。
Tagには、AIエージェントのための共通APIを備えた、20以上のモダンなテーブルトップゲームのセットが含まれている。
本稿では,これらのゲームにおいてRLエージェントをトレーニングするためのテクニックと,ゲームサブセット上での近似ポリシー最適化アルゴリズムのトレーニング後のベースライン結果を紹介する。
論文 参考訳(メタデータ) (2023-07-19T11:08:59Z) - SPRING: Studying the Paper and Reasoning to Play Games [102.5587155284795]
我々は,ゲーム本来の学術論文を読み取るための新しいアプローチ,SPRINGを提案し,大言語モデル(LLM)を通してゲームの説明とプレイの知識を利用する。
実験では,クラフトオープンワールド環境の設定下で,異なる形態のプロンプトによって引き起こされる文脈内「推論」の品質について検討した。
我々の実験は、LLMが一貫したチェーン・オブ・シークレットによって誘導されると、洗練された高レベル軌道の完成に大きな可能性があることを示唆している。
論文 参考訳(メタデータ) (2023-05-24T18:14:35Z) - TiZero: Mastering Multi-Agent Football with Curriculum Learning and
Self-Play [19.98100026335148]
TiZeroは、スクラッチから学習する自己進化型マルチエージェントシステムである。
これは、Google Research Footballの環境において、これまでのシステムよりはるかに優れている。
論文 参考訳(メタデータ) (2023-02-15T08:19:18Z) - TiKick: Toward Playing Multi-agent Football Full Games from Single-agent
Demonstrations [31.596018856092513]
Tikickは、マルチエージェントのGoogle Research Footballのフルゲームを引き継ぐことができる、学習ベースのAIシステムである。
私たちの知る限りでは、Tikickは、マルチエージェントのGoogle Research Footballのフルゲームを引き継ぐことができる、初めての学習ベースのAIシステムだ。
論文 参考訳(メタデータ) (2021-10-09T08:34:58Z) - Learning to Play Imperfect-Information Games by Imitating an Oracle
Planner [77.67437357688316]
我々は、同時移動と大規模なステートアクションスペースでマルチプレイヤーの不完全な情報ゲームをプレイする学習を検討します。
我々のアプローチはモデルに基づく計画に基づいている。
我々は,Clash Royale と Pommerman のゲームにおいて,プランナーが効率的なプレイ戦略を発見することができることを示す。
論文 参考訳(メタデータ) (2020-12-22T17:29:57Z) - Design and Implementation of TAG: A Tabletop Games Framework [59.60094442546867]
本書では,Tabletop Gamesフレームワーク(TAG)の設計と実装について述べる。
TAGは、AI研究のためのモダンなボードゲームを開発するためのJavaベースのベンチマークである。
論文 参考訳(メタデータ) (2020-09-25T07:27:30Z) - The Design Of "Stratega": A General Strategy Games Framework [62.997667081978825]
Strategaはターンベースおよびリアルタイム戦略ゲームを作成するためのフレームワークである。
このフレームワークは、統計的フォワードプランニング(SFP)エージェントに焦点を当てて構築されている。
我々は,このフレームワークとそのエージェントの開発が,戦略ゲームにおける複雑な意思決定プロセスの理解に役立つことを願っている。
論文 参考訳(メタデータ) (2020-09-11T20:02:00Z) - Learning from Learners: Adapting Reinforcement Learning Agents to be
Competitive in a Card Game [71.24825724518847]
本稿では,競争力のあるマルチプレイヤーカードゲームの現実的な実装を学習・プレイするために,一般的な強化学習アルゴリズムをどのように適用できるかについて検討する。
本研究は,学習エージェントに対して,エージェントが競争力を持つことの学習方法を評価するための特定のトレーニングと検証ルーチンを提案し,それらが相互の演奏スタイルにどのように適応するかを説明する。
論文 参考訳(メタデータ) (2020-04-08T14:11:05Z) - Neural MMO v1.3: A Massively Multiagent Game Environment for Training
and Evaluating Neural Networks [48.5733173329785]
本稿では,MMOにインスパイアされたマルチエージェントゲーム環境であるNeural MMOを紹介する。
分散インフラストラクチャとゲームIOという,AI研究のためのマルチエージェントシステムエンジニアリングにおける,より一般的な2つの課題について論じる。
論文 参考訳(メタデータ) (2020-01-31T18:50:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。