論文の概要: Out of the Loop Again: How Dangerous is Weaponizing Automated Nuclear Systems?
- arxiv url: http://arxiv.org/abs/2505.00496v1
- Date: Thu, 01 May 2025 12:51:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:55.30331
- Title: Out of the Loop Again: How Dangerous is Weaponizing Automated Nuclear Systems?
- Title(参考訳): 新たなループ:いかにして自動化された原子力システムの兵器化が危険なのか?
- Authors: Joshua A. Schwartz, Michael C. Horowitz,
- Abstract要約: 我々は、自動化された核発射システムで実装された明示的な核脅威は、より信頼できる可能性があると論じる。
核利用に対する人間のコントロールを減らすことで、リーダーはより効果的に手を縛り、信号の解決を行うことができる。
本研究は, 強制交渉, 大量破壊兵器, 新興技術に関する文献に寄与する。
- 参考スコア(独自算出の注目度): 0.6906005491572401
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Are nuclear weapons useful for coercion, and, if so, what factors increase the credibility and effectiveness of nuclear threats? While prominent scholars like Thomas Schelling argue that nuclear brinkmanship, or the manipulation of nuclear risk, can effectively coerce adversaries, others contend nuclear weapons are not effective tools of coercion, especially coercion designed to achieve offensive and revisionist objectives. Simultaneously, there is broad debate about the incorporation of artificial intelligence (AI) into military systems, especially nuclear command and control. We develop a theoretical argument that explicit nuclear threats implemented with automated nuclear launch systems are potentially more credible compared to ambiguous nuclear threats or explicit nuclear threats implemented via non-automated means. By reducing human control over nuclear use, leaders can more effectively tie their hands and thus signal resolve. While automated nuclear weapons launch systems may seem like something out of science fiction, the Soviet Union deployed such a system during the Cold War and the technology necessary to automate the use of force has developed considerably in recent years due to advances in AI. Preregistered survey experiments on an elite sample of United Kingdom Members of Parliament and two public samples of UK citizens provide support for these expectations, showing that, in a limited set of circumstances, nuclear threats backed by AI integration have credibility advantages, no matter how dangerous they may be. Our findings contribute to the literatures on coercive bargaining, weapons of mass destruction, and emerging technology.
- Abstract(参考訳): 核兵器は強制に役立ち、もしそうなら、核脅威の信頼性と有効性を高める要因は何か。
トーマス・シェリングのような著名な学者は、核兵器のブランクマンシップ(核リスクの操作)は敵を効果的に強要できると主張しているが、他の研究者は、核兵器は効果的な強迫力の道具ではなく、特に攻撃的で修正主義的な目的を達成するために設計された強迫力であると主張している。
同時に、人工知能(AI)の軍事システムへの組み入れ、特に核の指揮と制御について広く議論されている。
我々は、自動化された核発射システムで実施される明示的な核脅威は、曖昧な核脅威や非自動化された手段で実施される明示的な核脅威と比較して、潜在的に信頼性が高いという理論的な議論を発展させる。
核利用に対する人間のコントロールを減らすことで、リーダーはより効果的に手を縛り、信号の解決を行うことができる。
自動化された核兵器発射システムはSFとは思えないかもしれないが、ソ連は冷戦中にそのようなシステムを配備し、AIの進歩により、近年は力の自動化に必要な技術が著しく進歩している。
英国議会議員のエリートサンプルと英国市民の2人の公的サンプルに関する事前登録された調査実験は、これらの期待に対する支持を提供しており、限られた状況下では、AI統合によって支えられた核脅威は、どんなに危険でも信頼できる利点があることを示している。
本研究は, 強制交渉, 大量破壊兵器, 新興技術に関する文献に寄与する。
関連論文リスト
- AI threats to national security can be countered through an incident regime [55.2480439325792]
我々は、AIシステムからの潜在的な国家安全保障脅威に対抗することを目的とした、法的に義務付けられたポストデプロイAIインシデントシステムを提案する。
提案したAIインシデント体制は,3段階に分けられる。第1フェーズは,‘AIインシデント’とみなすような,新たな運用方法を中心に展開される。
第2フェーズと第3フェーズでは、AIプロバイダが政府機関にインシデントを通知し、政府機関がAIプロバイダのセキュリティおよび安全手順の修正に関与するべきだ、と説明されている。
論文 参考訳(メタデータ) (2025-03-25T17:51:50Z) - Superintelligence Strategy: Expert Version [64.7113737051525]
AI開発を不安定にすることで、大国間の対立の可能性が高まる可能性がある。
スーパーインテリジェンス — ほぼすべての認知タスクにおいて、AIが人間よりもはるかに優れている — が、AI研究者によって期待されている。
本稿では,相互保証型AI誤動作の概念を紹介する。
論文 参考訳(メタデータ) (2025-03-07T17:53:24Z) - New technologies and AI: envisioning future directions for UNSCR 1540 [0.0]
論文は、WMDの開発、普及、潜在的な誤用におけるAI技術の増大する影響に対処するため、UNSCR 1540の拡張を要求する。
論文 参考訳(メタデータ) (2024-09-25T12:41:12Z) - Work-in-Progress: Crash Course: Can (Under Attack) Autonomous Driving Beat Human Drivers? [60.51287814584477]
本稿では,現在のAVの状況を調べることによって,自律運転における本質的なリスクを評価する。
AVの利点と、現実のシナリオにおける潜在的なセキュリティ課題との微妙なバランスを強調した、特定のクレームを開発する。
論文 参考訳(メタデータ) (2024-05-14T09:42:21Z) - AI-Powered Autonomous Weapons Risk Geopolitical Instability and Threaten AI Research [6.96356867602455]
自律兵器システム(AWS)開発における機械学習の最近の採用は、地政学的な安定性とAI研究におけるアイデアの自由交換に深刻なリスクをもたらす、と我々は主張する。
MLはすでに、多くの戦場で、人間の兵士のためのAWSの代替を可能にしている。
さらに、AWSの軍事的価値は、AIによる軍備競争の投機と、AI研究に対する国家安全保障上の制限の誤った適用を提起する。
論文 参考訳(メタデータ) (2024-05-03T05:19:45Z) - Near to Mid-term Risks and Opportunities of Open-Source Generative AI [94.06233419171016]
Generative AIの応用は、科学や医学、教育など、さまざまな分野に革命をもたらすことが期待されている。
こうした地震の影響の可能性は、潜在的なリスクに関する活発な議論を引き起こし、より厳格な規制を要求した。
この規制は、オープンソースのジェネレーティブAIの誕生する分野を危険にさらしている可能性が高い。
論文 参考訳(メタデータ) (2024-04-25T21:14:24Z) - A Technological Perspective on Misuse of Available AI [41.94295877935867]
民間人工知能(AI)の悪意ある誤用は、国家や国際レベルでのセキュリティに深刻な脅威をもたらす可能性がある。
既存のオープンなAI技術が、いかに誤用されているかを示します。
我々は、政治的、デジタル的、物理的セキュリティを脅かす、潜在的に誤用されたAIの典型的なユースケースを3つ開発する。
論文 参考訳(メタデータ) (2024-03-22T16:30:58Z) - Control Risk for Potential Misuse of Artificial Intelligence in Science [85.91232985405554]
我々は、科学におけるAI誤用の危険性の認識を高めることを目的としている。
化学科学における誤用の実例を取り上げる。
我々は、科学におけるAIモデルの誤用リスクを制御するSciGuardというシステムを提案する。
論文 参考訳(メタデータ) (2023-12-11T18:50:57Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - Artificial Intelligence and Arms Control [0.0]
AIを搭載した軍事システムというアイデアは、一部の活動家に、一部の武器システムに対する制限や禁止を求める動機となった。
この論文は、AIのすべての軍事的応用が禁止される可能性は低いが、武器の制御が可能である特定のケースが存在すると論じている。
論文 参考訳(メタデータ) (2022-10-22T16:09:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。