論文の概要: Collateral Damage Assessment Model for AI System Target Engagement in Military Operations
- arxiv url: http://arxiv.org/abs/2510.20337v1
- Date: Thu, 23 Oct 2025 08:36:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:17.623959
- Title: Collateral Damage Assessment Model for AI System Target Engagement in Military Operations
- Title(参考訳): 軍事運用におけるAIシステム目標エンゲージメントの相互損傷評価モデル
- Authors: Clara Maathuis, Kasper Cools,
- Abstract要約: このモデルは、統合された知識表現と推論アーキテクチャに時間的、空間的、力的な次元を統合する。
モデルは、インスタンス化によって実証され、評価される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In an era where AI (Artificial Intelligence) systems play an increasing role in the battlefield, ensuring responsible targeting demands rigorous assessment of potential collateral effects. In this context, a novel collateral damage assessment model for target engagement of AI systems in military operations is introduced. The model integrates temporal, spatial, and force dimensions within a unified Knowledge Representation and Reasoning (KRR) architecture following a design science methodological approach. Its layered structure captures the categories and architectural components of the AI systems to be engaged together with corresponding engaging vectors and contextual aspects. At the same time, spreading, severity, likelihood, and evaluation metrics are considered in order to provide a clear representation enhanced by transparent reasoning mechanisms. Further, the model is demonstrated and evaluated through instantiation which serves as a basis for further dedicated efforts that aim at building responsible and trustworthy intelligent systems for assessing the effects produced by engaging AI systems in military operations.
- Abstract(参考訳): AI(Artificial Intelligence)システムが戦場において役割を担い、潜在的な副作用を厳格に評価する責任を負う。
この文脈では、軍事作戦におけるAIシステムのターゲットエンゲージメントのための新たな担保損傷評価モデルが導入された。
このモデルは、設計科学の方法論的アプローチに従って、統合された知識表現と推論(KRR)アーキテクチャに時間的、空間的、および力的次元を統合する。
その階層構造は、AIシステムのカテゴリとアーキテクチャコンポーネントを、対応するアクティベーションベクタとコンテキストの側面とともにキャプチャする。
同時に、透明な推論機構によって強化された明確な表現を提供するために、拡散、深刻度、可能性、評価指標が考慮される。
さらに、このモデルは、軍事作戦におけるAIシステムの関与による効果を評価するために、責任と信頼性の高いインテリジェントなシステムを構築するための、さらなる献身的な取り組みの基盤となるインスタンス化を通じて、実証され、評価される。
関連論文リスト
- Fundamentals of Building Autonomous LLM Agents [64.39018305018904]
本稿では,大規模言語モデル(LLM)を用いたエージェントのアーキテクチャと実装手法について概説する。
この研究は、複雑なタスクを自動化し、人間の能力でパフォーマンスのギャップを埋めることのできる「アジェンティック」なLLMを開発するためのパターンを探求することを目的としている。
論文 参考訳(メタデータ) (2025-10-10T10:32:39Z) - Creative Adversarial Testing (CAT): A Novel Framework for Evaluating Goal-Oriented Agentic AI Systems [0.0]
CAT(Creative Adversarial Testing)は、エージェントAIタスクとシステムの意図する目的との間の複雑な関係をキャプチャして分析するために設計された、新しいアプローチである。
我々は、Alexa+オーディオサービスに倣った合成相互作用データを用いて、CATフレームワークを広範囲にシミュレーションすることで検証する。
我々の結果は、CATフレームワークが目標とタスクのアライメントに関する前例のない洞察を提供し、エージェントAIシステムのより効率的な最適化と開発を可能にしていることを実証している。
論文 参考訳(メタデータ) (2025-09-26T23:52:20Z) - Rethinking Technological Readiness in the Era of AI Uncertainty [0.0]
私たちは、現在の技術準備性評価は、重要なAI固有の要因を捉えることができないと論じています。
軍事システムにおけるAIコンポーネントの成熟度と信頼性を評価するための新しいAI Readiness Frameworkを提案する。
論文 参考訳(メタデータ) (2025-04-15T14:09:50Z) - Levels of AGI for Operationalizing Progress on the Path to AGI [53.28828093836034]
本稿では,人工知能(AGI)モデルとその前駆体の性能と動作を分類する枠組みを提案する。
このフレームワークは、AGIのパフォーマンス、一般性、自律性のレベルを導入し、モデルを比較し、リスクを評価し、AGIへの道筋に沿って進捗を測定する共通の言語を提供する。
論文 参考訳(メタデータ) (2023-11-04T17:44:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。