論文の概要: AlphaDDA: game artificial intelligence with dynamic difficulty
adjustment using AlphaZero
- arxiv url: http://arxiv.org/abs/2111.06266v1
- Date: Thu, 11 Nov 2021 15:15:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-12 13:28:36.040085
- Title: AlphaDDA: game artificial intelligence with dynamic difficulty
adjustment using AlphaZero
- Title(参考訳): AlphaDDA:AlphaZeroを用いた動的難易度調整型ゲーム人工知能
- Authors: Kazuhisa Fujita
- Abstract要約: AIプレイヤーは人間プレイヤーの相手として強すぎる。
人間のプレイヤーを楽しませるためには、AIプレイヤーは人間のプレイヤーと自動的にスキルのバランスをとる必要がある。
我々はAlphaZeroに基づく動的難易度調整を行うAIプレイヤーであるAlphaDDAを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: An artificial intelligence (AI) player has obtained superhuman skill for
games like Go, Chess, and Othello (Reversi). In other words, the AI player
becomes too strong as an opponent of human players. Then, we will not enjoy
playing board games with the AI player. In order to entertain human players,
the AI player is required to balance its skill with the human player's one
automatically. To address this issue, I propose AlphaDDA, an AI player with
dynamic difficulty adjustment based on AlphaZero. AlphaDDA consists of a deep
neural network (DNN) and Monte Carlo tree search like AlphaZero. AlphaDDA
estimates the value of the game state form only the board state using the DNN
and changes its skill according to the value. AlphaDDA can adjust AlphaDDA's
skill using only the state of a game without prior knowledge about an opponent.
In this study, AlphaDDA plays Connect4, 6x6 Othello, which is Othello using a
6x6 size board, and Othello with the other AI agents. The other AI agents are
AlphaZero, Monte Carlo tree search, Minimax algorithm, and a random player.
This study shows that AlphaDDA achieves to balance its skill with the other AI
agents except for a random player. AlphaDDA's DDA ability is derived from the
accurate estimation of the value from the state of a game. We will be able to
use the approach of AlphaDDA for any games in that the DNN can estimate the
value from the state.
- Abstract(参考訳): 人工知能(AI)プレーヤーは、Go、Chess、Othello(Reversi)といったゲームで超人的なスキルを得た。
言い換えれば、aiプレイヤーは人間プレイヤーの対戦相手として強くなりすぎます。
そして、私たちはAIプレイヤーとボードゲームを楽しむことができません。
人間のプレイヤーを楽しませるためには、AIプレイヤーは人間のプレイヤーと自動的にスキルのバランスをとる必要がある。
この問題に対処するため,AlphaZeroに基づく動的困難調整を行うAIプレイヤーであるAlphaDDAを提案する。
AlphaDDAは、AlphaZeroのようなDeep Neural Network(DNN)とMonte Carloツリーサーチで構成される。
AlphaDDAは、DNNを用いてボード状態のみを形成する遊技状態の値を推定し、その値に応じてそのスキルを変更する。
AlphaDDAはAlphaDDAのスキルを、相手について事前の知識なしにゲームの状態だけを使って調整することができる。
この研究では、AlphaDDAがConnect4、6x6 Othelloをプレイし、Othelloは6x6サイズボードを使用し、Othelloは他のAIエージェントと通信する。
他のAIエージェントは、AlphaZero、Monte Carloツリーサーチ、Minimaxアルゴリズム、ランダムプレイヤーである。
この研究は、AlphaDDAがランダムプレイヤーを除く他のAIエージェントとスキルのバランスをとることができることを示している。
AlphaDDAのDDA能力は、ゲームの状態から値の正確な推定から導かれる。
我々は、DNNが状態から値を推定できるような、任意のゲームにAlphaDDAのアプローチを利用することができる。
関連論文リスト
- Flexible game-playing AI with AlphaViT: adapting to multiple games and board sizes [0.0]
本稿では、AlphaViT、AlphaViD、AlphaVDAといったビジョントランスフォーマー(ViT)で強化されたAlphaZeroフレームワークに基づくゲームAIエージェントを提案する。
これらのエージェントは、1つのモデルを使用して様々なサイズのボードゲームをプレイするように設計されており、AlphaZeroの固定されたボードサイズに制限される制限を克服している。
論文 参考訳(メタデータ) (2024-08-25T15:40:21Z) - Learning to Play 7 Wonders Duel Without Human Supervision [43.37406806733957]
本稿では,ボードゲーム「7 Wonders Duel」をプレイするために開発された人工知能システム「ZeusAI」を紹介する。
ZeusAIは、Monte Carlo Tree SearchとTransformer Neural Networkを組み合わせて、人間の監督なしにゲームを学ぶ。
論文 参考訳(メタデータ) (2024-06-02T13:28:57Z) - DanZero+: Dominating the GuanDan Game through Reinforcement Learning [95.90682269990705]
我々は、GuanDanという、非常に複雑で人気のあるカードゲームのためのAIプログラムを開発した。
私たちはまず、DanZeroという名のAIプログラムをこのゲームのために提案しました。
AIの能力をさらに強化するために、政策に基づく強化学習アルゴリズムをGuanDanに適用する。
論文 参考訳(メタデータ) (2023-12-05T08:07:32Z) - Are AlphaZero-like Agents Robust to Adversarial Perturbations? [73.13944217915089]
AlphaZero(AZ)は、ニューラルネットワークベースのGo AIが人間のパフォーマンスを大きく上回ることを示した。
私たちは、Go AIが驚くほど間違った行動を起こさせる可能性のある、敵対的な状態が存在するかどうか尋ねる。
我々は、Go AIに対する最初の敵攻撃を開発し、探索空間を戦略的に減らし、効率よく敵の状態を探索する。
論文 参考訳(メタデータ) (2022-11-07T18:43:25Z) - DanZero: Mastering GuanDan Game with Reinforcement Learning [121.93690719186412]
カードゲームAIは、人工知能の研究において常にホットな話題となっている。
本稿では,より複雑なカードゲームであるGuanDanのためのAIプログラムの開発に専念する。
そこで我々は,強化学習技術を用いたGuanDanのためのAIプログラムDanZeroを提案する。
論文 参考訳(メタデータ) (2022-10-31T06:29:08Z) - Mastering the Game of Stratego with Model-Free Multiagent Reinforcement
Learning [86.37438204416435]
Strategoは、人工知能(AI)がまだマスターしていない数少ない象徴的なボードゲームの一つだ。
ストラテゴにおける決定は、行動と結果の間に明らかな結びつきがなく、多数の個別の行動に対してなされる。
DeepNashは、ストラテゴの既存の最先端AIメソッドを破り、Gravonゲームプラットフォームで年間(2022年)と最高3位を達成した。
論文 参考訳(メタデータ) (2022-06-30T15:53:19Z) - AI in Games: Techniques, Challenges and Opportunities [40.86375378643978]
Libratus、OpenAI Five、AlphaStarといった様々なゲームAIシステムが開発され、プロの人間プレイヤーに勝っている。
本稿では,最近成功したゲームAI,ボードゲームAI,カードゲームAI,ファーストパーソンシューティングゲームAI,リアルタイム戦略ゲームAIについて調査する。
論文 参考訳(メタデータ) (2021-11-15T09:35:53Z) - Aligning Superhuman AI with Human Behavior: Chess as a Model System [5.236087378443016]
我々は、人間のチェスゲームで訓練されたAlpha-Zeroのカスタマイズ版であるMaiaを開発し、既存のエンジンよりもはるかに高い精度で人間の動きを予測する。
人間が次の動きで大きな間違いを犯すかどうかを予測する2つのタスクに対して、我々は、競争ベースラインを大幅に上回るディープニューラルネットワークを開発する。
論文 参考訳(メタデータ) (2020-06-02T18:12:52Z) - Suphx: Mastering Mahjong with Deep Reinforcement Learning [114.68233321904623]
我々は、新たに導入されたいくつかの技術を用いた深層強化学習に基づいて、Suphxという名のマフジョンのためのAIを設計する。
Suphxは、安定したランクの点で、ほとんどのトップの人間プレイヤーよりも強いパフォーマンスを示している。
コンピュータプログラムがマヒョンで最上位の人間プレイヤーを上回るのは、これが初めてである。
論文 参考訳(メタデータ) (2020-03-30T16:18:16Z) - Very simple statistical evidence that AlphaGo has exceeded human limits
in playing GO game [0.0]
マシンがGoゲームで人間を倒すのは非常に難しいように思われたが、AlphaGoはゲームでプロのプレイヤーを倒すことを示した。
囲碁石が連続して配置される距離の統計的分布から、Alphagoが人間の能力を上回ったという明確な痕跡を見いだすことができる。
論文 参考訳(メタデータ) (2020-02-25T01:46:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。