論文の概要: Military AI Needs Technically-Informed Regulation to Safeguard AI Research and its Applications
- arxiv url: http://arxiv.org/abs/2505.18371v1
- Date: Fri, 23 May 2025 20:58:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:42.374488
- Title: Military AI Needs Technically-Informed Regulation to Safeguard AI Research and its Applications
- Title(参考訳): 軍事AIは、AI研究とその応用を守るために技術的に改革された規則を必要とする
- Authors: Riley Simmons-Edler, Jean Dong, Paul Lushenko, Kanaka Rajan, Ryan P. Badman,
- Abstract要約: 我々は、ターゲティングや戦場決定にAIを使用する致命的な自律兵器システム(LAWS)のサブセットに焦点を当てます。
これらのリスクは、軍事的効果とAI研究の開放性の両方を脅かす。
本稿では,AI-LAWSの行動に基づく定義を技術的根拠に基づく規制の基盤として提案する。
- 参考スコア(独自算出の注目度): 1.4347154947542533
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Military weapon systems and command-and-control infrastructure augmented by artificial intelligence (AI) have seen rapid development and deployment in recent years. However, the sociotechnical impacts of AI on combat systems, military decision-making, and the norms of warfare have been understudied. We focus on a specific subset of lethal autonomous weapon systems (LAWS) that use AI for targeting or battlefield decisions. We refer to this subset as AI-powered lethal autonomous weapon systems (AI-LAWS) and argue that they introduce novel risks -- including unanticipated escalation, poor reliability in unfamiliar environments, and erosion of human oversight -- all of which threaten both military effectiveness and the openness of AI research. These risks cannot be addressed by high-level policy alone; effective regulation must be grounded in the technical behavior of AI models. We argue that AI researchers must be involved throughout the regulatory lifecycle. Thus, we propose a clear, behavior-based definition of AI-LAWS -- systems that introduce unique risks through their use of modern AI -- as a foundation for technically grounded regulation, given that existing frameworks do not distinguish them from conventional LAWS. Using this definition, we propose several technically-informed policy directions and invite greater participation from the AI research community in military AI policy discussions.
- Abstract(参考訳): 人工知能(AI)によって強化された軍事兵器システムと指揮統制インフラは、近年急速に開発と展開が進んでいる。
しかし、AIが戦闘システム、軍事的意思決定、および戦争の規範に与える社会技術的影響は検討されている。
我々は、ターゲティングや戦場決定にAIを使用する、致命的な自律兵器システム(LAWS)の特定のサブセットに焦点を当てます。
我々は、このサブセットをAI駆動の致命的な自律兵器システム(AI-LAWS)と呼び、予想外のエスカレーション、不慣れな環境での信頼性の低下、人間の監視の侵食など、AI研究の軍事的効果とオープン性の両方を脅かす新たなリスクを導入すると主張している。
これらのリスクは、高レベルのポリシーだけでは対処できない。効果的な規制は、AIモデルの技術的な振る舞いに基礎を置く必要がある。
AI研究者は、規制ライフサイクルを通じて関与しなければならない、と私たちは主張する。
したがって、既存のフレームワークが従来のLAWSと区別しないため、技術的に根ざした規制の基盤として、AI-LAWSの明確な振る舞いベースの定義 -- 現代的なAIの使用によるユニークなリスクを導入するシステムを提案する。
この定義を用いて、軍事AI政策の議論において、技術的にインフォームドされた政策指針をいくつか提案し、AI研究コミュニティからのさらなる参加を呼びかける。
関連論文リスト
- AI threats to national security can be countered through an incident regime [55.2480439325792]
我々は、AIシステムからの潜在的な国家安全保障脅威に対抗することを目的とした、法的に義務付けられたポストデプロイAIインシデントシステムを提案する。
提案したAIインシデント体制は,3段階に分けられる。第1フェーズは,‘AIインシデント’とみなすような,新たな運用方法を中心に展開される。
第2フェーズと第3フェーズでは、AIプロバイダが政府機関にインシデントを通知し、政府機関がAIプロバイダのセキュリティおよび安全手順の修正に関与するべきだ、と説明されている。
論文 参考訳(メタデータ) (2025-03-25T17:51:50Z) - Alignment, Agency and Autonomy in Frontier AI: A Systems Engineering Perspective [0.0]
アライメント、エージェンシー、自律といった概念は、AIの安全性、ガバナンス、制御の中心となっている。
本稿では、これらの概念の歴史的、哲学的、技術的進化をトレースし、その定義がAI開発、デプロイメント、監視にどのように影響するかを強調する。
論文 参考訳(メタデータ) (2025-02-20T21:37:20Z) - AI-Powered Autonomous Weapons Risk Geopolitical Instability and Threaten AI Research [6.96356867602455]
自律兵器システム(AWS)開発における機械学習の最近の採用は、地政学的な安定性とAI研究におけるアイデアの自由交換に深刻なリスクをもたらす、と我々は主張する。
MLはすでに、多くの戦場で、人間の兵士のためのAWSの代替を可能にしている。
さらに、AWSの軍事的価値は、AIによる軍備競争の投機と、AI研究に対する国家安全保障上の制限の誤った適用を提起する。
論文 参考訳(メタデータ) (2024-05-03T05:19:45Z) - A Technological Perspective on Misuse of Available AI [41.94295877935867]
民間人工知能(AI)の悪意ある誤用は、国家や国際レベルでのセキュリティに深刻な脅威をもたらす可能性がある。
既存のオープンなAI技術が、いかに誤用されているかを示します。
我々は、政治的、デジタル的、物理的セキュリティを脅かす、潜在的に誤用されたAIの典型的なユースケースを3つ開発する。
論文 参考訳(メタデータ) (2024-03-22T16:30:58Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - AI Deception: A Survey of Examples, Risks, and Potential Solutions [20.84424818447696]
本稿は、現在のAIシステムが人間を騙す方法を学んだことを論じる。
我々は虚偽を、真理以外の結果の追求において、虚偽の信念を体系的に誘導するものとして定義する。
論文 参考訳(メタデータ) (2023-08-28T17:59:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。