論文の概要: Diversity-based Deep Reinforcement Learning Towards Multidimensional
Difficulty for Fighting Game AI
- arxiv url: http://arxiv.org/abs/2211.02759v1
- Date: Fri, 4 Nov 2022 21:49:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 17:47:19.874812
- Title: Diversity-based Deep Reinforcement Learning Towards Multidimensional
Difficulty for Fighting Game AI
- Title(参考訳): ゲームAIの多次元化に向けた多様性に基づく深層強化学習
- Authors: Emily Halina, Matthew Guzdial
- Abstract要約: 多様性に基づく深層強化学習手法を導入し,類似した難易度を持つエージェント群を創出する。
このアプローチは,多様性と性能の両面で,専門的かつ人為的な報酬関数で訓練されたベースラインを上回っている。
- 参考スコア(独自算出の注目度): 0.9645196221785693
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In fighting games, individual players of the same skill level often exhibit
distinct strategies from one another through their gameplay. Despite this, the
majority of AI agents for fighting games have only a single strategy for each
"level" of difficulty. To make AI opponents more human-like, we'd ideally like
to see multiple different strategies at each level of difficulty, a concept we
refer to as "multidimensional" difficulty. In this paper, we introduce a
diversity-based deep reinforcement learning approach for generating a set of
agents of similar difficulty that utilize diverse strategies. We find this
approach outperforms a baseline trained with specialized, human-authored reward
functions in both diversity and performance.
- Abstract(参考訳): 格闘ゲームでは、同じスキルレベルの個々のプレイヤーが、ゲームプレイを通じて異なる戦略を示すことが多い。
それにもかかわらず、対戦するAIエージェントの大多数は、難易度ごとに1つの戦略しか持っていない。
AIの対戦相手をより人間らしくするために、私たちは理想的には、複数の異なる戦略をそれぞれの難易度レベルで見たいと思っています。
本稿では,多様な戦略を利用する類似の難易度を持つエージェント群を生成するための多様性に基づく深層強化学習手法を提案する。
このアプローチは,多様性と性能の両面で,専門的かつ人為的な報酬関数で訓練されたベースラインを上回っている。
関連論文リスト
- Personalized Dynamic Difficulty Adjustment -- Imitation Learning Meets Reinforcement Learning [44.99833362998488]
本研究では,機械学習をベースとしたエージェントを用いて,現在の動作に基づいてプレイヤーに挑戦するゲーム難易度について検討する。
これは2つのエージェントの組み合わせによって達成され、1つはプレイヤーを模倣することを学び、もう1つは1つを倒すように訓練される。
本稿では,対戦ゲームAIコンペティションにおけるAIエージェントの動的難易度調整のためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-13T11:24:12Z) - Reinforcement Learning for High-Level Strategic Control in Tower Defense Games [47.618236610219554]
戦略ゲームにおいて、ゲームデザインの最も重要な側面の1つは、プレイヤーにとっての挑戦の感覚を維持することである。
従来のスクリプティング手法と強化学習を組み合わせた自動手法を提案する。
その結果、強化学習のような学習アプローチとスクリプトAIを組み合わせることで、AIのみを使用するよりも高性能で堅牢なエージェントが生まれることが示された。
論文 参考訳(メタデータ) (2024-06-12T08:06:31Z) - DanZero+: Dominating the GuanDan Game through Reinforcement Learning [95.90682269990705]
我々は、GuanDanという、非常に複雑で人気のあるカードゲームのためのAIプログラムを開発した。
私たちはまず、DanZeroという名のAIプログラムをこのゲームのために提案しました。
AIの能力をさらに強化するために、政策に基づく強化学習アルゴリズムをGuanDanに適用する。
論文 参考訳(メタデータ) (2023-12-05T08:07:32Z) - All by Myself: Learning Individualized Competitive Behaviour with a
Contrastive Reinforcement Learning optimization [57.615269148301515]
競争ゲームのシナリオでは、エージェントのセットは、彼らの目標を最大化し、敵の目標を同時に最小化する決定を学習する必要があります。
本稿では,競争ゲームの表現を学習し,特定の相手の戦略をどうマップするか,それらを破壊するかを学習する3つのニューラルネットワーク層からなる新しいモデルを提案する。
我々の実験は、オフライン、オンライン、競争特化モデル、特に同じ対戦相手と複数回対戦した場合に、我々のモデルがより良いパフォーマンスを達成することを示した。
論文 参考訳(メタデータ) (2023-10-02T08:11:07Z) - Pick Your Battles: Interaction Graphs as Population-Level Objectives for
Strategic Diversity [49.68758494467258]
我々は、集団内の個人がどのように相互作用するかを慎重に構造化することで、多様なエージェントの集団を構築する方法について研究する。
我々のアプローチは,エージェント間の情報の流れを制御するインタラクショングラフに基づいている。
マルチエージェント・トレーニングにおける多様性の重要性を証明し,様々な相互作用グラフを適用したゲームにおけるトレーニング・トラジェクトリ,多様性,パフォーマンスに与える影響を解析する。
論文 参考訳(メタデータ) (2021-10-08T11:29:52Z) - Identification of Play Styles in Universal Fighting Engine [0.0]
我々は、AIと人間制御されたキャラクターのプレイスタイルを比較するために、自動プロシージャをどのように使用できるかを示す。
また,ゲーム参加者の人間らしさや多様性を評価する上でも有効であることを示す。
論文 参考訳(メタデータ) (2021-08-08T10:06:16Z) - Generating Diverse and Competitive Play-Styles for Strategy Games [58.896302717975445]
ターン型戦略ゲーム(Tribes)のためのプログレッシブアンプランによるPortfolio Monte Carlo Tree Searchを提案する。
品質分散アルゴリズム(MAP-Elites)を使用して異なるプレイスタイルを実現し、競争レベルを維持しながらパラメータ化する方法を示します。
その結果,このアルゴリズムは,トレーニングに用いるレベルを超えて,幅広いゲームレベルにおいても,これらの目標を達成できることが示された。
論文 参考訳(メタデータ) (2021-04-17T20:33:24Z) - Multi-AI competing and winning against humans in iterated
Rock-Paper-Scissors game [4.2124879433151605]
我々は1つの固定メモリ長のマルコフモデルに基づくAIアルゴリズムを用いて、反復したRock Paper Scissorsゲームで人間と競合する。
我々は、異なる競合戦略に対応するために、変更可能なパラメータを持つマルチAIアーキテクチャを開発する。
我々の戦略は、95%以上の人間の対戦相手に勝つことができる。
論文 参考訳(メタデータ) (2020-03-15T06:39:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。