論文の概要: COA-GPT: Generative Pre-trained Transformers for Accelerated Course of Action Development in Military Operations
- arxiv url: http://arxiv.org/abs/2402.01786v2
- Date: Thu, 28 Mar 2024 15:22:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-29 20:52:50.520817
- Title: COA-GPT: Generative Pre-trained Transformers for Accelerated Course of Action Development in Military Operations
- Title(参考訳): COA-GPT:軍事活動における行動発達の加速のための生成事前訓練型変圧器
- Authors: Vinicius G. Goecks, Nicholas Waytowich,
- Abstract要約: 本研究では,大規模言語モデル(LLM)を用いたCOA-GPTを導入して,有効な行動コース(COA)を迅速かつ効率的に生成する手法を提案する。
COA-GPTは軍隊の教義とドメインの専門知識をLLMに組み込んでコンテキスト内学習を行い、指揮官はミッション情報を入力し、戦略的に整列したCOAを受け取り、レビューと承認を行う。
この研究は、StarCraft IIの軍用バージョンにおける軍事関連シナリオにおけるCOA-GPTを評価し、その性能を最先端の強化学習アルゴリズムと比較した。
- 参考スコア(独自算出の注目度): 1.9304660430198575
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The development of Courses of Action (COAs) in military operations is traditionally a time-consuming and intricate process. Addressing this challenge, this study introduces COA-GPT, a novel algorithm employing Large Language Models (LLMs) for rapid and efficient generation of valid COAs. COA-GPT incorporates military doctrine and domain expertise to LLMs through in-context learning, allowing commanders to input mission information - in both text and image formats - and receive strategically aligned COAs for review and approval. Uniquely, COA-GPT not only accelerates COA development, producing initial COAs within seconds, but also facilitates real-time refinement based on commander feedback. This work evaluates COA-GPT in a military-relevant scenario within a militarized version of the StarCraft II game, comparing its performance against state-of-the-art reinforcement learning algorithms. Our results demonstrate COA-GPT's superiority in generating strategically sound COAs more swiftly, with added benefits of enhanced adaptability and alignment with commander intentions. COA-GPT's capability to rapidly adapt and update COAs during missions presents a transformative potential for military planning, particularly in addressing planning discrepancies and capitalizing on emergent windows of opportunities.
- Abstract(参考訳): 軍事作戦における行動コース(COA)の開発は、伝統的に時間を要する複雑なプロセスである。
この課題に対処するために,大規模言語モデル(LLM)を用いたCOA-GPTを導入し,有効なCOAを迅速かつ効率的に生成する手法を提案する。
COA-GPTはLLMに軍事的教義とドメインの専門知識を取り入れ、指揮官がミッション情報(テキストと画像の両方)を入力し、レビューと承認のために戦略的に整列したCOAを受け取ることができる。
COA-GPTはCOA開発を加速し、数秒でCOAを発生させるだけでなく、指揮官のフィードバックに基づいてリアルタイムにCOAを改良する。
この研究は、StarCraft IIの軍用バージョンにおける軍事関連シナリオにおけるCOA-GPTを評価し、その性能を最先端の強化学習アルゴリズムと比較した。
以上の結果から,COA-GPTはより迅速かつ戦略的にCOAを生成でき,適応性の向上と指揮官の意図との整合性がもたらされた。
COA-GPTのミッション中にCOAを迅速に適応・更新する能力は、軍事計画、特に計画上の不一致に対処し、創発的な機会の窓に乗じることにおいて、変革的な可能性を示す。
関連論文リスト
- Data-Driven Distributed Common Operational Picture from Heterogeneous Platforms using Multi-Agent Reinforcement Learning [1.3469274919926262]
無人プラットフォームの統合は、状況認識を高め、軍事作戦における「戦争の霧」を軽減することを約束する。
これらのプラットフォームからの膨大なデータの流入を管理することは、Command and Control (C2)システムにとって大きな課題となる。
本研究では,この課題に対処する新しいマルチエージェント学習フレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-08T16:31:22Z) - Autonomous Decision Making for UAV Cooperative Pursuit-Evasion Game with Reinforcement Learning [50.33447711072726]
本稿では,マルチロールUAV協調追従ゲームにおける意思決定のための深層強化学習モデルを提案する。
提案手法は,追従回避ゲームシナリオにおけるUAVの自律的意思決定を可能にする。
論文 参考訳(メタデータ) (2024-11-05T10:45:30Z) - Premier-TACO is a Few-Shot Policy Learner: Pretraining Multitask Representation via Temporal Action-Driven Contrastive Loss [61.355272240758]
Premier-TACOはマルチタスクの特徴表現学習手法である。
シーケンシャルな意思決定タスクにおいて、数ショットのポリシー学習効率を改善するように設計されている。
論文 参考訳(メタデータ) (2024-02-09T05:04:40Z) - Blacksmith: Fast Adversarial Training of Vision Transformers via a
Mixture of Single-step and Multi-step Methods [4.649452333875421]
視覚変換器(ViT)における破滅的オーバーフィッティング(CO)問題を克服するための新しいトレーニング戦略を提案する。
本手法では,ニューラルネットの対向トレーニングにおいて,小バッチにおいてPGD-2とFGSMのいずれかをランダムに利用する。
提案手法はCOを効果的に防止し,PGD-2レベルの性能を実現し,既存の技術よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-10-29T10:48:44Z) - Learning to Sail Dynamic Networks: The MARLIN Reinforcement Learning
Framework for Congestion Control in Tactical Environments [53.08686495706487]
本稿では, 正確な並列化可能なエミュレーション環境を利用して, 戦術ネットワークの環境を再現するRLフレームワークを提案する。
衛星通信(SATCOM)とUHFワイドバンド(UHF)の無線リンク間のボトルネックリンク遷移を再現した条件下で、MARLINエージェントを訓練することにより、我々のRL学習フレームワークを評価する。
論文 参考訳(メタデータ) (2023-06-27T16:15:15Z) - A Reinforcement Learning-assisted Genetic Programming Algorithm for Team
Formation Problem Considering Person-Job Matching [70.28786574064694]
解の質を高めるために強化学習支援遺伝的プログラミングアルゴリズム(RL-GP)を提案する。
効率的な学習を通じて得られる超ヒューリスティックなルールは、プロジェクトチームを形成する際の意思決定支援として利用することができる。
論文 参考訳(メタデータ) (2023-04-08T14:32:12Z) - Improving Chinese Spelling Check by Character Pronunciation Prediction:
The Effects of Adaptivity and Granularity [76.20568599642799]
中国語のスペルチェック(英語: Chinese spelling check, CSC)は、中国語のテキスト中のスペルエラーを検出し修正する基本的なNLPタスクである。
本稿では,CSCを改善するために中国語発音予測(CPP)の補助的タスクを導入することを検討する。
本稿では,共有エンコーダの2つの並列デコーダ上に構築したSCOPEを提案する。
論文 参考訳(メタデータ) (2022-10-20T03:42:35Z) - Adversary agent reinforcement learning for pursuit-evasion [0.0]
本研究は,戦争の霧の中での追撃ゲームにおいて,敵エージェントによる強化学習環境を提案する。
最も人気のある学習環境の一つであるStarCraftがここで採用され、関連するミニゲームを分析して、敵エージェントのトレーニングの現在の制限を特定する。
提案したSAAC環境は、急速に発展する強化学習技術による追従回避研究の恩恵を受ける。
論文 参考訳(メタデータ) (2021-08-25T01:44:06Z) - Parallelized Reverse Curriculum Generation [62.25453821794469]
強化学習では, エージェントが, まばらな報酬のために, 特定の一連の行動を必要とするタスクをマスターすることが困難である。
逆カリキュラム生成(RCG)は、エージェントが学習するカリキュラムを自動的に生成する逆拡張アプローチを提供する。
本稿では,複数のACペアを同時に訓練し,定期的に批判を交換する並列化手法を提案する。
論文 参考訳(メタデータ) (2021-08-04T15:58:35Z) - Reinforcement Learning With Sparse-Executing Actions via Sparsity Regularization [15.945378631406024]
強化学習(RL)は、具体的制御、自律運転、金融取引といった意思決定タスクにおいて、素晴らしいパフォーマンスを示している。
多くの意思決定タスクでは、エージェントは限られた予算の下でアクションを実行するという問題に遭遇する。
本稿では,行動空間における特定の行動が限られた時間しか実行できないスパース行動マルコフ決定プロセス(SA-MDP)としてこの問題を定式化する。
本稿では,ポリシー最適化アルゴリズムであるAction Sparsity Regularization (ASRE)を提案する。
論文 参考訳(メタデータ) (2021-05-18T16:50:42Z) - On Learning Combinatorial Patterns to Assist Large-Scale Airline Crew
Pairing Optimization [0.0]
本稿では,飛行接続データ中の可視パターンを学習するための変分グラフオートエンコーダの新たな適応法を提案する。
結果として生じる飛行接続予測は、新しいペアリングを生成するために小説を使ってオンザフライで組み合わせられる。
提案手法の実用性は、複数のハブ・アンド・スポーク・ワークスと複数のクルー・ベースを特徴とする、大規模(4200以上のフライト)、実世界、アメリカの航空会社の複雑なフライト・ネットワーク上で実証されている。
論文 参考訳(メタデータ) (2020-04-28T20:16:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。