論文の概要: A New Challenge: Approaching Tetris Link with AI
- arxiv url: http://arxiv.org/abs/2004.00377v1
- Date: Wed, 1 Apr 2020 12:25:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-17 18:45:13.670306
- Title: A New Challenge: Approaching Tetris Link with AI
- Title(参考訳): 新しい挑戦:テトリスリンクとaiへのアプローチ
- Authors: Matthias Muller-Brockhausen, Mike Preuss, Aske Plaat
- Abstract要約: 本稿は、科学的な分析がまだ欠けているボードゲームであるTetris Linkに焦点を当てる。
強化学習(Reinforcement Learning)、モンテカルロ木探索(Monte Carlo tree search)の2つのアプローチについて検討する。
私たちはトーナメントでの彼らの相対的なパフォーマンスについて報告します。
- 参考スコア(独自算出の注目度): 1.2031796234206134
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Decades of research have been invested in making computer programs for
playing games such as Chess and Go. This paper focuses on a new game, Tetris
Link, a board game that is still lacking any scientific analysis. Tetris Link
has a large branching factor, hampering a traditional heuristic planning
approach. We explore heuristic planning and two other approaches: Reinforcement
Learning, Monte Carlo tree search. We document our approach and report on their
relative performance in a tournament. Curiously, the heuristic approach is
stronger than the planning/learning approaches. However, experienced human
players easily win the majority of the matches against the heuristic planning
AIs. We, therefore, surmise that Tetris Link is more difficult than expected.
We offer our findings to the community as a challenge to improve upon.
- Abstract(参考訳): チェスや囲碁などのゲームのためのコンピュータプログラムの開発には、長年の研究が注がれている。
本稿では,新しいゲームであるtetris linkに注目し,科学的解析に乏しいボードゲームについて述べる。
Tetris Linkには大きな分岐要素があり、従来のヒューリスティックな計画アプローチを妨げる。
ヒューリスティックな計画と強化学習,モンテカルロ木探索の2つのアプローチについて検討した。
我々のアプローチを文書化し、トーナメントにおける相対的なパフォーマンスを報告します。
おかしなことに、ヒューリスティックなアプローチは、計画/学習アプローチよりも強い。
しかし、経験豊富な人間プレイヤーは、ヒューリスティックな計画AIに対する試合の過半数を容易に勝ち取ることができる。
したがって、テトリスリンクは予想以上に難しいと推測する。
改善する上での課題として、私たちの発見をコミュニティに提供します。
関連論文リスト
- Reinforcement Learning for High-Level Strategic Control in Tower Defense Games [47.618236610219554]
戦略ゲームにおいて、ゲームデザインの最も重要な側面の1つは、プレイヤーにとっての挑戦の感覚を維持することである。
従来のスクリプティング手法と強化学習を組み合わせた自動手法を提案する。
その結果、強化学習のような学習アプローチとスクリプトAIを組み合わせることで、AIのみを使用するよりも高性能で堅牢なエージェントが生まれることが示された。
論文 参考訳(メタデータ) (2024-06-12T08:06:31Z) - DanZero+: Dominating the GuanDan Game through Reinforcement Learning [95.90682269990705]
我々は、GuanDanという、非常に複雑で人気のあるカードゲームのためのAIプログラムを開発した。
私たちはまず、DanZeroという名のAIプログラムをこのゲームのために提案しました。
AIの能力をさらに強化するために、政策に基づく強化学習アルゴリズムをGuanDanに適用する。
論文 参考訳(メタデータ) (2023-12-05T08:07:32Z) - JiangJun: Mastering Xiangqi by Tackling Non-Transitivity in Two-Player
Zero-Sum Games [15.500508239382583]
本論文は,チェスや将具に匹敵するゲームツリーに匹敵する,中国の伝統的なボードゲームであるXiangqiに焦点を当てる。
我々は,モンテカルロ木探索 (MCTS) と政策空間応答オラクル (PSRO) の革新的な組み合わせであるジアンジュンアルゴリズムを導入し,ナッシュ均衡を近似した。
WeChatのミニプログラムを用いてアルゴリズムを実証的に評価し、人間プレイヤーに対する99.41%の勝利率でマスターレベルを達成する。
論文 参考訳(メタデータ) (2023-08-09T05:48:58Z) - Know your Enemy: Investigating Monte-Carlo Tree Search with Opponent
Models in Pommerman [14.668309037894586]
強化学習(Reinforcement Learning)と組み合わせて、モンテカルロ木探索(Monte-Carlo Tree Search)はChess、Shogi、Goといったゲームにおいて、人間のグランドマスターよりも優れていることを示した。
汎用マルチプレイヤーゲームからシングルプレイヤーゲームと2プレイヤーゲームに変換する手法について検討する。
論文 参考訳(メタデータ) (2023-05-22T16:39:20Z) - Introducing Tales of Tribute AI Competition [0.7639610349097472]
本稿では,新たなAIチャレンジであるT Tales of Tribute AI Competition(TOTAIC)を提案する。
このゲームは、The Elder Scrolls OnlineのHigh Isle章でリリースされた2人のプレイヤーによるデッキビルディングカードゲームに基づいている。
本稿では,競争の枠組みを紹介し,ゲームのルールを説明し,サンプルAIエージェント間のトーナメントの結果を示す。
論文 参考訳(メタデータ) (2023-05-14T19:55:56Z) - Generating Diverse and Competitive Play-Styles for Strategy Games [58.896302717975445]
ターン型戦略ゲーム(Tribes)のためのプログレッシブアンプランによるPortfolio Monte Carlo Tree Searchを提案する。
品質分散アルゴリズム(MAP-Elites)を使用して異なるプレイスタイルを実現し、競争レベルを維持しながらパラメータ化する方法を示します。
その結果,このアルゴリズムは,トレーニングに用いるレベルを超えて,幅広いゲームレベルにおいても,これらの目標を達成できることが示された。
論文 参考訳(メタデータ) (2021-04-17T20:33:24Z) - Learning to Play Imperfect-Information Games by Imitating an Oracle
Planner [77.67437357688316]
我々は、同時移動と大規模なステートアクションスペースでマルチプレイヤーの不完全な情報ゲームをプレイする学習を検討します。
我々のアプローチはモデルに基づく計画に基づいている。
我々は,Clash Royale と Pommerman のゲームにおいて,プランナーが効率的なプレイ戦略を発見することができることを示す。
論文 参考訳(メタデータ) (2020-12-22T17:29:57Z) - Learning to Play Sequential Games versus Unknown Opponents [93.8672371143881]
学習者が最初にプレーするゲームと、選択した行動に反応する相手との連続的なゲームについて考察する。
対戦相手の対戦相手列と対戦する際,学習者に対して新しいアルゴリズムを提案する。
我々の結果には、相手の反応の正則性に依存するアルゴリズムの後悔の保証が含まれている。
論文 参考訳(メタデータ) (2020-07-10T09:33:05Z) - Enhanced Rolling Horizon Evolution Algorithm with Opponent Model
Learning: Results for the Fighting Game AI Competition [9.75720700239984]
本稿では,RHEA(Rolling Horizon Evolution Algorithm)と対向モデル学習を組み合わせた新しいアルゴリズムを提案する。
2019年の競争で上位5つのボットのうち、モンテカルロツリーサーチ(MCTS)を使用しないボットは、ポリシーグラディエントベースの対戦モデルによるボットのみである。
論文 参考訳(メタデータ) (2020-03-31T04:44:33Z) - Suphx: Mastering Mahjong with Deep Reinforcement Learning [114.68233321904623]
我々は、新たに導入されたいくつかの技術を用いた深層強化学習に基づいて、Suphxという名のマフジョンのためのAIを設計する。
Suphxは、安定したランクの点で、ほとんどのトップの人間プレイヤーよりも強いパフォーマンスを示している。
コンピュータプログラムがマヒョンで最上位の人間プレイヤーを上回るのは、これが初めてである。
論文 参考訳(メタデータ) (2020-03-30T16:18:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。