論文の概要: Agile, Antifragile, Artificial-Intelligence-Enabled, Command and Control
- arxiv url: http://arxiv.org/abs/2109.06874v1
- Date: Tue, 14 Sep 2021 11:39:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-16 14:51:03.456202
- Title: Agile, Antifragile, Artificial-Intelligence-Enabled, Command and Control
- Title(参考訳): アジャイル、反脆弱、人工知能対応、指揮統制
- Authors: Jacob Simpson (1), Rudolph Oosthuizen (2), Sondoss El Sawah (1) and
Hussein Abbass (1) ((1) University of New South Wales Canberra, (2)
University of Pretoria)
- Abstract要約: AIは、C2関数をAIに委譲することで、C2の脆弱性を高めることができる、という罠につながるかもしれない、と私たちは主張する。
AI対応のC2システムの中核となる設計原則は、アジリティとともに反脆弱性だ、と我々は主張する。
A3IC2システムは複雑な運用環境に留まるだけでなく、繁栄する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Artificial Intelligence (AI) is rapidly becoming integrated into military
Command and Control (C2) systems as a strategic priority for many defence
forces. The successful implementation of AI is promising to herald a
significant leap in C2 agility through automation. However, realistic
expectations need to be set on what AI can achieve in the foreseeable future.
This paper will argue that AI could lead to a fragility trap, whereby the
delegation of C2 functions to an AI could increase the fragility of C2,
resulting in catastrophic strategic failures. This calls for a new framework
for AI in C2 to avoid this trap. We will argue that antifragility along with
agility should form the core design principles for AI-enabled C2 systems. This
duality is termed Agile, Antifragile, AI-Enabled Command and Control (A3IC2).
An A3IC2 system continuously improves its capacity to perform in the face of
shocks and surprises through overcompensation from feedback during the C2
decision-making cycle. An A3IC2 system will not only be able to survive within
a complex operational environment, it will also thrive, benefiting from the
inevitable shocks and volatility of war.
- Abstract(参考訳): 人工知能(AI)は、多くの防衛軍にとって戦略的優先事項として、軍事指揮統制システム(C2)システムに急速に統合されつつある。
AIの実装の成功は、自動化によるC2アジリティの大きな飛躍を告げるものだ。
しかし、近い将来、AIが達成できることに現実的な期待が設定される必要がある。
本稿では、aiが脆弱な罠につながり、c2の機能をaiに委譲することでc2の脆弱さが高まり、壊滅的な戦略的失敗を招くと論じる。
これにより、この罠を避けるために、C2でAIの新しいフレームワークが要求される。
AI対応のC2システムの中核となる設計原則は、アジリティとともに反脆弱性だ、と我々は主張する。
この双対性はAgile, Antifragile, AI-Enabled Command and Control (A3IC2)と呼ばれている。
A3IC2システムは、C2意思決定サイクル中のフィードバックからの過度な補償を通じて、ショックやサプライズに直面する能力を継続的に改善する。
a3ic2システムは複雑な運用環境の中で生き残るだけでなく、必然的なショックとボラティリティの恩恵を受け、繁栄するでしょう。
関連論文リスト
- Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
AIシステムは知恵を欠いている。
AI研究はタスクレベルの戦略に焦点を当てているが、メタ認知はAIシステムでは未発達である。
メタ認知機能をAIシステムに統合することは、その堅牢性、説明可能性、協力性、安全性を高めるために不可欠である。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Societal Adaptation to Advanced AI [1.2607853680700076]
先進的なAIシステムからリスクを管理する既存の戦略は、AIシステムの開発方法と拡散方法に影響を与えることに集中することが多い。
我々は、先進的なAIへの社会適応の増大という補完的なアプローチを奨励する。
我々は、AIシステムの潜在的に有害な使用を回避し、防御し、治療する適応的介入を特定するのに役立つ概念的枠組みを導入する。
論文 参考訳(メタデータ) (2024-05-16T17:52:12Z) - Re-Envisioning Command and Control [0.936282238572033]
将来の戦争では、コマンド・アンド・コントロール(C2)による決定は、より複雑で、高速で、非構造的で、要求の厳しい状況で行われなければならない。
現在のC2プラクティスは、新興のインテリジェンス時代ではなく、産業時代に由来するもので、線形で時間を要する。
我々は、人間と人工知能(AI)システムとの堅牢な連携に基づく将来のC2のビジョンを提案する。
論文 参考訳(メタデータ) (2024-02-09T16:10:29Z) - A Red Teaming Framework for Securing AI in Maritime Autonomous Systems [0.0]
海上自律システムのAIセキュリティを評価するための,最初のレッドチームフレームワークを提案する。
このフレームワークはマルチパートのチェックリストであり、異なるシステムや要件に合わせて調整できる。
私たちはこのフレームワークが、現実の海上自律システムAI内の多数の脆弱性を明らかにするために、レッドチームにとって非常に効果的であることを実証しています。
論文 参考訳(メタデータ) (2023-12-08T14:59:07Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - AI Maintenance: A Robustness Perspective [91.28724422822003]
我々は、AIライフサイクルにおけるロバストネスの課題を強調し、自動車のメンテナンスに類似させることで、AIのメンテナンスを動機付ける。
本稿では,ロバストネスリスクの検出と軽減を目的としたAIモデル検査フレームワークを提案する。
我々のAIメンテナンスの提案は、AIライフサイクル全体を通して堅牢性評価、状態追跡、リスクスキャン、モデル硬化、規制を促進する。
論文 参考訳(メタデータ) (2023-01-08T15:02:38Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Structured access to AI capabilities: an emerging paradigm for safe AI
deployment [0.0]
AIシステムをオープンに普及させる代わりに、開発者はAIシステムとの制御された腕の長さのインタラクションを促進する。
Aimは、危険なAI能力が広くアクセスされることを防ぐと同時に、安全に使用できるAI機能へのアクセスを保護することを目的としている。
論文 参考訳(メタデータ) (2022-01-13T19:30:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。