論文の概要: Strategic Maneuver and Disruption with Reinforcement Learning Approaches
for Multi-Agent Coordination
- arxiv url: http://arxiv.org/abs/2203.09565v1
- Date: Thu, 17 Mar 2022 19:02:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-22 10:01:37.099429
- Title: Strategic Maneuver and Disruption with Reinforcement Learning Approaches
for Multi-Agent Coordination
- Title(参考訳): 強化学習によるマルチエージェント協調のための戦略的操作と破壊
- Authors: Derrik E. Asher, Anjon Basak, Rolando Fernandez, Piyush K. Sharma,
Erin G. Zaroukian, Christopher D. Hsu, Michael R. Dorothy, Thomas Mahre,
Gerardo Galindo, Luke Frerichs, John Rogers, and John Fossaceca
- Abstract要約: 強化学習(Reinforcement Learning, RL)アプローチは,エージェントチーム間の協調を容易にする創発的行動の顕在化を可能にする。
戦略的な戦術と破壊を行うための有望な道の1つは、将来の軍事作戦におけるMASの調整である。
- 参考スコア(独自算出の注目度): 1.0651507097431494
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Reinforcement learning (RL) approaches can illuminate emergent behaviors that
facilitate coordination across teams of agents as part of a multi-agent system
(MAS), which can provide windows of opportunity in various military tasks.
Technologically advancing adversaries pose substantial risks to a friendly
nation's interests and resources. Superior resources alone are not enough to
defeat adversaries in modern complex environments because adversaries create
standoff in multiple domains against predictable military doctrine-based
maneuvers. Therefore, as part of a defense strategy, friendly forces must use
strategic maneuvers and disruption to gain superiority in complex multi-faceted
domains such as multi-domain operations (MDO). One promising avenue for
implementing strategic maneuver and disruption to gain superiority over
adversaries is through coordination of MAS in future military operations. In
this paper, we present overviews of prominent works in the RL domain with their
strengths and weaknesses for overcoming the challenges associated with
performing autonomous strategic maneuver and disruption in military contexts.
- Abstract(参考訳): 強化学習(Reinforcement Learning, RL)アプローチは、多エージェントシステム(MAS)の一部としてエージェントチーム間の協調を促進する創発的行動の解明を可能にする。
技術的に進歩する敵は友好国の利益と資源に重大なリスクをもたらす。
上級の資源だけでは、現代の複雑な環境で敵を倒すには十分ではない。
したがって、防衛戦略の一環として、親善軍はマルチドメイン作戦(mdo)のような複雑な多面的ドメインにおいて優位を得るために戦略的な操作と混乱を使わなければならない。
敵よりも優位に立つための戦略演習と破壊を行うための有望な道の1つは、将来の軍事作戦におけるMASの協調である。
本稿では,軍事的文脈における自律的戦略行動の実行と破壊に関わる課題を克服するために,RLドメインにおけるその強みと弱点を概観する。
関連論文リスト
- Hierarchical Multi-agent Reinforcement Learning for Cyber Network Defense [7.967738380932909]
本稿では,サイバー防御タスクをネットワーク調査やホストリカバリといった特定のサブタスクに分解する階層的PPOアーキテクチャを提案する。
我々のアプローチは、ドメインの専門知識が強化されたPPOを使用して、各サブタスクのサブ政治を訓練することである。
これらのサブ政治は、複雑なネットワーク防御タスクを解決するためにそれらの選択を調整するマスターディフェンスポリシーによって活用される。
論文 参考訳(メタデータ) (2024-10-22T18:35:05Z) - Attack Atlas: A Practitioner's Perspective on Challenges and Pitfalls in Red Teaming GenAI [52.138044013005]
生成AI、特に大規模言語モデル(LLM)は、製品アプリケーションにますます統合される。
新たな攻撃面と脆弱性が出現し、自然言語やマルチモーダルシステムにおける敵の脅威に焦点を当てる。
レッドチーム(英語版)はこれらのシステムの弱点を積極的に識別する上で重要となり、ブルーチーム(英語版)はそのような敵の攻撃から保護する。
この研究は、生成AIシステムの保護のための学術的な洞察と実践的なセキュリティ対策のギャップを埋めることを目的としている。
論文 参考訳(メタデータ) (2024-09-23T10:18:10Z) - Richelieu: Self-Evolving LLM-Based Agents for AI Diplomacy [24.521882655442187]
外交は、特に必要な交渉段階を考慮して、決定空間の停滞を伴う。
従来のAIエージェントは、マルチエージェントタスクにおいて、マルチステップゲームと大きなアクションスペースを扱う能力を示した。
我々は、包括的なマルチエージェントミッションを実行することができる人間のようなエージェントを作成するAIの可能性を探究することを目的としている。
論文 参考訳(メタデータ) (2024-07-09T12:37:54Z) - Cooperation, Competition, and Maliciousness: LLM-Stakeholders Interactive Negotiation [52.930183136111864]
我々は,大言語モデル(LLM)を評価するためにスコーラブルネゴシエーション(scorable negotiations)を提案する。
合意に達するには、エージェントは強力な算術、推論、探索、計画能力を持つ必要がある。
我々は、新しいゲームを作成し、進化するベンチマークを持つことの難しさを増大させる手順を提供する。
論文 参考訳(メタデータ) (2023-09-29T13:33:06Z) - Learning Cyber Defence Tactics from Scratch with Multi-Agent
Reinforcement Learning [4.796742432333795]
コンピュータネットワーク防衛の役割における知的エージェントのチームは、サイバーおよび運動的資産を保護するための有望な道を明らかにする可能性がある。
エージェントは、ホストベースの防衛シナリオにおける攻撃活動を共同で緩和する能力に基づいて評価される。
論文 参考訳(メタデータ) (2023-08-25T14:07:50Z) - ProAgent: Building Proactive Cooperative Agents with Large Language
Models [89.53040828210945]
ProAgentは、大規模な言語モデルを利用してプロアクティブエージェントを生成する新しいフレームワークである。
ProAgentは現状を分析し、チームメイトの意図を観察から推測することができる。
ProAgentは高度なモジュール化と解釈可能性を示し、様々な調整シナリオに容易に統合できる。
論文 参考訳(メタデータ) (2023-08-22T10:36:56Z) - AdverSAR: Adversarial Search and Rescue via Multi-Agent Reinforcement
Learning [4.843554492319537]
本稿では,敵対的エージェント間コミュニケーションの存在下で,ロボットの戦略を効率的に調整するアルゴリズムを提案する。
ロボットは対象の場所について事前の知識を持っておらず、隣接するロボットのサブセットのみといつでも対話できると仮定される。
提案手法の有効性は, グリッドワールド環境のプロトタイプで実証した。
論文 参考訳(メタデータ) (2022-12-20T08:13:29Z) - Conditional Imitation Learning for Multi-Agent Games [89.897635970366]
本研究では,条件付きマルチエージェント模倣学習の課題について考察する。
本稿では,スケーラビリティとデータ不足の難しさに対処する新しい手法を提案する。
我々のモデルは,egoやパートナエージェント戦略よりも低ランクなサブスペースを学習し,サブスペースに補間することで,新たなパートナ戦略を推論し,適応する。
論文 参考訳(メタデータ) (2022-01-05T04:40:13Z) - HAVEN: Hierarchical Cooperative Multi-Agent Reinforcement Learning with
Dual Coordination Mechanism [17.993973801986677]
多エージェント強化学習はしばしば、多数のエージェントによって引き起こされる指数関数的に大きな作用空間に悩まされる。
完全協調型マルチエージェント問題に対する階層的強化学習に基づく新しい値分解フレームワークHAVENを提案する。
論文 参考訳(メタデータ) (2021-10-14T10:43:47Z) - Explore and Control with Adversarial Surprise [78.41972292110967]
強化学習(Reinforcement Learning, RL)は、目標指向のポリシーを学習するためのフレームワークである。
本稿では,RLエージェントが経験した驚きの量と競合する2つのポリシーを相殺する対戦ゲームに基づく,新しい教師なしRL手法を提案する。
本手法は, 明確な相転移を示すことによって, 複雑なスキルの出現につながることを示す。
論文 参考訳(メタデータ) (2021-07-12T17:58:40Z) - Robust Reinforcement Learning on State Observations with Learned Optimal
Adversary [86.0846119254031]
逆摂動状態観測による強化学習の堅牢性について検討した。
固定されたエージェントポリシーでは、摂動状態の観測に最適な敵を見つけることができる。
DRLの設定では、これは以前のものよりもはるかに強い学習された敵対を介してRLエージェントに新しい経験的敵対攻撃につながります。
論文 参考訳(メタデータ) (2021-01-21T05:38:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。