論文の概要: Method for making multi-attribute decisions in wargames by combining
intuitionistic fuzzy numbers with reinforcement learning
- arxiv url: http://arxiv.org/abs/2109.02354v1
- Date: Mon, 6 Sep 2021 10:45:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-08 00:11:00.584230
- Title: Method for making multi-attribute decisions in wargames by combining
intuitionistic fuzzy numbers with reinforcement learning
- Title(参考訳): 直観的ファジィ数と強化学習を組み合わせた戦争ゲームにおける多属性決定法
- Authors: Yuxiang Sun, Bo Yuan, Yufan Xue, Jiawei Zhou, Xiaoyu Zhang and
Xianzhong Zhou
- Abstract要約: 本稿では,多属性管理と強化学習を組み合わせたアルゴリズムを提案する。
エージェントの特定のルールに対する勝利率の低さと、インテリジェントなウォーゲームトレーニング中にすぐに収束できない問題を解決します。
この分野では、知的ウォーガミングのためのアルゴリズム設計が多属性意思決定と強化学習を組み合わせたのは初めてである。
- 参考スコア(独自算出の注目度): 18.04026817707759
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Researchers are increasingly focusing on intelligent games as a hot research
area.The article proposes an algorithm that combines the multi-attribute
management and reinforcement learning methods, and that combined their effect
on wargaming, it solves the problem of the agent's low rate of winning against
specific rules and its inability to quickly converge during intelligent wargame
training.At the same time, this paper studied a multi-attribute decision making
and reinforcement learning algorithm in a wargame simulation environment, and
obtained data on red and blue conflict.Calculate the weight of each attribute
based on the intuitionistic fuzzy number weight calculations. Then determine
the threat posed by each opponent's chess pieces.Using the red side
reinforcement learning reward function, the AC framework is trained on the
reward function, and an algorithm combining multi-attribute decision-making
with reinforcement learning is obtained. A simulation experiment confirms that
the algorithm of multi-attribute decision-making combined with reinforcement
learning presented in this paper is significantly more intelligent than the
pure reinforcement learning algorithm.By resolving the shortcomings of the
agent's neural network, coupled with sparse rewards in large-map combat games,
this robust algorithm effectively reduces the difficulties of convergence. It
is also the first time in this field that an algorithm design for intelligent
wargaming combines multi-attribute decision making with reinforcement
learning.Attempt interdisciplinary cross-innovation in the academic field, like
designing intelligent wargames and improving reinforcement learning algorithms.
- Abstract(参考訳): Researchers are increasingly focusing on intelligent games as a hot research area.The article proposes an algorithm that combines the multi-attribute management and reinforcement learning methods, and that combined their effect on wargaming, it solves the problem of the agent's low rate of winning against specific rules and its inability to quickly converge during intelligent wargame training.At the same time, this paper studied a multi-attribute decision making and reinforcement learning algorithm in a wargame simulation environment, and obtained data on red and blue conflict.Calculate the weight of each attribute based on the intuitionistic fuzzy number weight calculations.
そして、各相手のチェス駒が与える脅威を判定し、レッドサイド強化学習報酬関数を用いて、報酬関数に基づいて交流フレームワークを訓練し、多属性意思決定と強化学習を組み合わせたアルゴリズムを得る。
シミュレーション実験により,本論文で提示された強化学習と組み合わせたマルチ属性意思決定のアルゴリズムが,純粋強化学習アルゴリズムよりも有意にインテリジェントであることを確認し,エージェントのニューラルネットワークの欠点を解決し,大地図戦闘ゲームにおけるスパース報酬と組み合わせることにより,この頑健なアルゴリズムは,収束の困難を効果的に低減する。
また、知的ウォーゲームの設計や強化学習アルゴリズムの改善といった学術分野における学際的相互革新の回避は、知的ウォーゲームのためのアルゴリズム設計と強化学習とを組み合わせることが、この分野で初めてである。
関連論文リスト
- Reasoning, Memorization, and Fine-Tuning Language Models for Non-Cooperative Games [18.406992961818368]
ゲームにおける学習済み言語モデルの能力を高めるために,思考のツリーとマルチエージェントフレームワークを統合する手法を開発した。
ベンチマークアルゴリズムに対して65%の勝利率を示し、微調整後の10%の改善を加えました。
論文 参考訳(メタデータ) (2024-10-18T22:28:22Z) - Mastering Chinese Chess AI (Xiangqi) Without Search [2.309569018066392]
我々は,検索アルゴリズムに頼らずに動作する高性能な中国チェスAIを開発した。
このAIは、人間の上位0.1%のプレイヤーと競争する能力を示した。
論文 参考訳(メタデータ) (2024-10-07T09:27:51Z) - A Unified Approach to Reinforcement Learning, Quantal Response
Equilibria, and Two-Player Zero-Sum Games [104.3339905200105]
この研究は、ミラー降下と非ユークリッド近位勾配アルゴリズムにインスパイアされた、磁気ミラー降下と呼ばれるアルゴリズムを研究する。
我々の貢献は、2人のプレイヤーゼロサムゲームにおける平衡解法および強化学習へのアプローチとしての磁気ミラー降下の利点を実証することである。
論文 参考訳(メタデータ) (2022-06-12T19:49:14Z) - No-Regret Learning in Time-Varying Zero-Sum Games [99.86860277006318]
固定ゼロサムゲームにおける繰り返しプレイからの学習は、ゲーム理論とオンライン学習における古典的な問題である。
提案手法は,3つの性能基準の下で,良好な保証を同時に享受できる1つのパラメータフリーアルゴリズムである。
本アルゴリズムは,ある特性を満たすブラックボックスベースラーナー群に対するメタアルゴリズムを用いた2層構造に基づく。
論文 参考訳(メタデータ) (2022-01-30T06:10:04Z) - Online Learning in Budget-Constrained Dynamic Colonel Blotto Games [2.132096006921048]
ブロット大佐ゲーム (CBG) を用いて, 動的環境下での限られた資源の戦略的割り当てについて検討する。
我々は,経路計画問題に対する特別な帯域幅アルゴリズムと,予算制約に対処するknapsackアルゴリズムを組み合わせた効率的なアルゴリズムを考案した。
論文 参考訳(メタデータ) (2021-03-23T20:52:56Z) - Multi-Task Federated Reinforcement Learning with Adversaries [2.6080102941802106]
強化学習アルゴリズムは敵からの深刻な脅威となる。
本稿では,多タスク連関強化学習アルゴリズムの解析を行う。
攻撃性能が向上した適応攻撃法を提案する。
論文 参考訳(メタデータ) (2021-03-11T05:39:52Z) - Disturbing Reinforcement Learning Agents with Corrupted Rewards [62.997667081978825]
強化学習アルゴリズムに対する報酬の摂動に基づく異なる攻撃戦略の効果を分析します。
敵対的な報酬をスムーズに作成することは学習者を誤解させることができ、低探査確率値を使用すると、学習した政策は報酬を腐敗させるのがより堅牢であることを示しています。
論文 参考訳(メタデータ) (2021-02-12T15:53:48Z) - Evolving Reinforcement Learning Algorithms [186.62294652057062]
メタラーニング強化学習アルゴリズムの手法を提案する。
学習アルゴリズムはドメインに依存しないため、トレーニング中に見えない新しい環境に一般化することができる。
従来の制御タスク、gridworld型タスク、atariゲームよりも優れた一般化性能を得る2つの学習アルゴリズムに注目した。
論文 参考訳(メタデータ) (2021-01-08T18:55:07Z) - Learning to Play Sequential Games versus Unknown Opponents [93.8672371143881]
学習者が最初にプレーするゲームと、選択した行動に反応する相手との連続的なゲームについて考察する。
対戦相手の対戦相手列と対戦する際,学習者に対して新しいアルゴリズムを提案する。
我々の結果には、相手の反応の正則性に依存するアルゴリズムの後悔の保証が含まれている。
論文 参考訳(メタデータ) (2020-07-10T09:33:05Z) - Provable Self-Play Algorithms for Competitive Reinforcement Learning [48.12602400021397]
我々はマルコフゲームの設定の下で、競争力強化学習における自己プレイについて研究する。
自己再生アルゴリズムは、ゲームのT$ステップをプレイした後、後悔の$tildemathcalO(sqrtT)$を達成する。
また, 最悪の場合においても, 時間内に実行可能であることを保証し, 若干悪い後悔を招き, エクスプロイトスタイルのアルゴリズムも導入する。
論文 参考訳(メタデータ) (2020-02-10T18:44:50Z) - Algorithms in Multi-Agent Systems: A Holistic Perspective from
Reinforcement Learning and Game Theory [2.5147566619221515]
近年では深い強化学習が顕著な成果を上げている。
最近の研究は、シングルエージェントのシナリオを越えて学習を検討し、マルチエージェントのシナリオを検討しています。
従来のゲーム理論アルゴリズムは、現代的なアルゴリズムと組み合わせた明るいアプリケーションの約束を示し、計算能力を高める。
論文 参考訳(メタデータ) (2020-01-17T15:08:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。