論文の概要: Strategic Maneuver and Disruption with Reinforcement Learning Approaches
for Multi-Agent Coordination
- arxiv url: http://arxiv.org/abs/2203.09565v1
- Date: Thu, 17 Mar 2022 19:02:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-22 10:01:37.099429
- Title: Strategic Maneuver and Disruption with Reinforcement Learning Approaches
for Multi-Agent Coordination
- Title(参考訳): 強化学習によるマルチエージェント協調のための戦略的操作と破壊
- Authors: Derrik E. Asher, Anjon Basak, Rolando Fernandez, Piyush K. Sharma,
Erin G. Zaroukian, Christopher D. Hsu, Michael R. Dorothy, Thomas Mahre,
Gerardo Galindo, Luke Frerichs, John Rogers, and John Fossaceca
- Abstract要約: 強化学習(Reinforcement Learning, RL)アプローチは,エージェントチーム間の協調を容易にする創発的行動の顕在化を可能にする。
戦略的な戦術と破壊を行うための有望な道の1つは、将来の軍事作戦におけるMASの調整である。
- 参考スコア(独自算出の注目度): 1.0651507097431494
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Reinforcement learning (RL) approaches can illuminate emergent behaviors that
facilitate coordination across teams of agents as part of a multi-agent system
(MAS), which can provide windows of opportunity in various military tasks.
Technologically advancing adversaries pose substantial risks to a friendly
nation's interests and resources. Superior resources alone are not enough to
defeat adversaries in modern complex environments because adversaries create
standoff in multiple domains against predictable military doctrine-based
maneuvers. Therefore, as part of a defense strategy, friendly forces must use
strategic maneuvers and disruption to gain superiority in complex multi-faceted
domains such as multi-domain operations (MDO). One promising avenue for
implementing strategic maneuver and disruption to gain superiority over
adversaries is through coordination of MAS in future military operations. In
this paper, we present overviews of prominent works in the RL domain with their
strengths and weaknesses for overcoming the challenges associated with
performing autonomous strategic maneuver and disruption in military contexts.
- Abstract(参考訳): 強化学習(Reinforcement Learning, RL)アプローチは、多エージェントシステム(MAS)の一部としてエージェントチーム間の協調を促進する創発的行動の解明を可能にする。
技術的に進歩する敵は友好国の利益と資源に重大なリスクをもたらす。
上級の資源だけでは、現代の複雑な環境で敵を倒すには十分ではない。
したがって、防衛戦略の一環として、親善軍はマルチドメイン作戦(mdo)のような複雑な多面的ドメインにおいて優位を得るために戦略的な操作と混乱を使わなければならない。
敵よりも優位に立つための戦略演習と破壊を行うための有望な道の1つは、将来の軍事作戦におけるMASの協調である。
本稿では,軍事的文脈における自律的戦略行動の実行と破壊に関わる課題を克服するために,RLドメインにおけるその強みと弱点を概観する。
関連論文リスト
- Learning Cyber Defence Tactics from Scratch with Multi-Agent
Reinforcement Learning [4.796742432333795]
コンピュータネットワーク防衛の役割における知的エージェントのチームは、サイバーおよび運動的資産を保護するための有望な道を明らかにする可能性がある。
エージェントは、ホストベースの防衛シナリオにおける攻撃活動を共同で緩和する能力に基づいて評価される。
論文 参考訳(メタデータ) (2023-08-25T14:07:50Z) - ProAgent: Building Proactive Cooperative Agents with Large Language
Models [89.53040828210945]
ProAgentは、大規模な言語モデルを利用してプロアクティブエージェントを生成する新しいフレームワークである。
ProAgentは現状を分析し、チームメイトの意図を観察から推測することができる。
ProAgentは高度なモジュール化と解釈可能性を示し、様々な調整シナリオに容易に統合できる。
論文 参考訳(メタデータ) (2023-08-22T10:36:56Z) - Cooperation or Competition: Avoiding Player Domination for Multi-Target
Robustness via Adaptive Budgets [76.20705291443208]
我々は、敵攻撃を、異なるプレイヤーがパラメータ更新の合同方向で合意に達するために交渉する交渉ゲームであると見なしている。
我々は、プレイヤーの優位性を避けるために、異なる敵の予算を調整する新しいフレームワークを設計する。
標準ベンチマークの実験では、提案したフレームワークを既存のアプローチに適用することで、マルチターゲットロバスト性が大幅に向上することが示された。
論文 参考訳(メタデータ) (2023-06-27T14:02:10Z) - Robust multi-agent coordination via evolutionary generation of auxiliary
adversarial attackers [23.15190337027283]
副次的攻撃者生成によるロバスト多エージェント協調(ROMANCE)を提案する。
ROMANCEは、訓練中に多種多様で強力な補助的敵攻撃に遭遇することを可能にし、様々な政策摂動の下で高い堅牢性を達成する。
品質の目標は、エゴシステムのコーディネーション効果を最小限に抑えることであり、攻撃者間の振る舞いを多様化するために、新しい多様性レギュレータを適用することである。
論文 参考訳(メタデータ) (2023-05-10T05:29:47Z) - AdverSAR: Adversarial Search and Rescue via Multi-Agent Reinforcement
Learning [4.843554492319537]
本稿では,敵対的エージェント間コミュニケーションの存在下で,ロボットの戦略を効率的に調整するアルゴリズムを提案する。
ロボットは対象の場所について事前の知識を持っておらず、隣接するロボットのサブセットのみといつでも対話できると仮定される。
提案手法の有効性は, グリッドワールド環境のプロトタイプで実証した。
論文 参考訳(メタデータ) (2022-12-20T08:13:29Z) - Conditional Imitation Learning for Multi-Agent Games [89.897635970366]
本研究では,条件付きマルチエージェント模倣学習の課題について考察する。
本稿では,スケーラビリティとデータ不足の難しさに対処する新しい手法を提案する。
我々のモデルは,egoやパートナエージェント戦略よりも低ランクなサブスペースを学習し,サブスペースに補間することで,新たなパートナ戦略を推論し,適応する。
論文 参考訳(メタデータ) (2022-01-05T04:40:13Z) - HAVEN: Hierarchical Cooperative Multi-Agent Reinforcement Learning with
Dual Coordination Mechanism [17.993973801986677]
多エージェント強化学習はしばしば、多数のエージェントによって引き起こされる指数関数的に大きな作用空間に悩まされる。
完全協調型マルチエージェント問題に対する階層的強化学習に基づく新しい値分解フレームワークHAVENを提案する。
論文 参考訳(メタデータ) (2021-10-14T10:43:47Z) - Explore and Control with Adversarial Surprise [78.41972292110967]
強化学習(Reinforcement Learning, RL)は、目標指向のポリシーを学習するためのフレームワークである。
本稿では,RLエージェントが経験した驚きの量と競合する2つのポリシーを相殺する対戦ゲームに基づく,新しい教師なしRL手法を提案する。
本手法は, 明確な相転移を示すことによって, 複雑なスキルの出現につながることを示す。
論文 参考訳(メタデータ) (2021-07-12T17:58:40Z) - Robust Reinforcement Learning on State Observations with Learned Optimal
Adversary [86.0846119254031]
逆摂動状態観測による強化学習の堅牢性について検討した。
固定されたエージェントポリシーでは、摂動状態の観測に最適な敵を見つけることができる。
DRLの設定では、これは以前のものよりもはるかに強い学習された敵対を介してRLエージェントに新しい経験的敵対攻撃につながります。
論文 参考訳(メタデータ) (2021-01-21T05:38:52Z) - Natural Emergence of Heterogeneous Strategies in Artificially
Intelligent Competitive Teams [0.0]
我々はFortAttackと呼ばれる競合するマルチエージェント環境を開発し、2つのチームが互いに競合する。
このような振る舞いがチームの成功に繋がる場合、同種エージェント間の異種行動の自然発生を観察する。
我々は、進化した反対戦略を利用して、友好的なエージェントのための単一のポリシーを訓練するアンサンブルトレーニングを提案する。
論文 参考訳(メタデータ) (2020-07-06T22:35:56Z) - AdvMS: A Multi-source Multi-cost Defense Against Adversarial Attacks [81.45930614122925]
ディープニューラルネットワークは、マルウェア検出や自動運転車など、多くのセキュリティクリティカルな領域で急速に普及している。
従来の防衛手法は有望だが、単一ソースの単一コストの性質によってほとんど制限されている。
本稿では,AdvMSのマルチソース特性が性能評価問題を緩和し,多コスト特性が柔軟性と調整可能なコストの組み合わせによるロバスト性の向上を可能にすることを示す。
論文 参考訳(メタデータ) (2020-02-19T20:46:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。