論文の概要: Artificial Intelligence and Nuclear Weapons Proliferation: The Technological Arms Race for (In)visibility
- arxiv url: http://arxiv.org/abs/2512.07487v1
- Date: Mon, 08 Dec 2025 12:14:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:54.878499
- Title: Artificial Intelligence and Nuclear Weapons Proliferation: The Technological Arms Race for (In)visibility
- Title(参考訳): 人工知能と核兵器の増殖 : 不可視性のための技術兵器競争
- Authors: David M. Allison, Stephen Herzog,
- Abstract要約: 堅固な非増殖体制は、わずか9つの州に核兵器の拡散をもたらした。
しかし、新興で破壊的な技術が核リスクの展望を変えつつある。
成長の戦略的パターンは、これらの領域におけるイノベーションのペースによってますます形作られていくと我々は主張する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A robust nonproliferation regime has contained the spread of nuclear weapons to just nine states. Yet, emerging and disruptive technologies are reshaping the landscape of nuclear risks, presenting a critical juncture for decision makers. This article lays out the contours of an overlooked but intensifying technological arms race for nuclear (in)visibility, driven by the interplay between proliferation-enabling technologies (PETs) and detection-enhancing technologies (DETs). We argue that the strategic pattern of proliferation will be increasingly shaped by the innovation pace in these domains. Artificial intelligence (AI) introduces unprecedented complexity to this equation, as its rapid scaling and knowledge substitution capabilities accelerate PET development and challenge traditional monitoring and verification methods. To analyze this dynamic, we develop a formal model centered on a Relative Advantage Index (RAI), quantifying the shifting balance between PETs and DETs. Our model explores how asymmetric technological advancement, particularly logistic AI-driven PET growth versus stepwise DET improvements, expands the band of uncertainty surrounding proliferation detectability. Through replicable scenario-based simulations, we evaluate the impact of varying PET growth rates and DET investment strategies on cumulative nuclear breakout risk. We identify a strategic fork ahead, where detection may no longer suffice without broader PET governance. Governments and international organizations should accordingly invest in policies and tools agile enough to keep pace with tomorrow's technology.
- Abstract(参考訳): 堅固な非増殖体制は、わずか9つの州に核兵器の拡散をもたらした。
しかし、新興で破壊的な技術は核リスクの展望を変えつつある。
本稿では, 増殖誘導技術 (PET) と検出促進技術 (DET) の相互作用により, 核の視認性向上のための技術競争の輪郭を概説する。
成長の戦略的パターンは、これらの領域におけるイノベーションのペースによってますます形作られていくと我々は主張する。
人工知能(AI)は、その急速なスケーリングと知識置換能力によってPETの開発が加速し、従来の監視と検証手法に挑戦するため、前例のない複雑さをこの方程式に導入する。
このダイナミクスを解析するために、PETとDETのシフトバランスを定量化するRAI(Relative Advantage Index)を中心とした形式モデルを開発した。
我々のモデルは、非対称な技術進歩、特にロジスティックAI駆動型PET成長とステップワイドDTの改善が、増殖検出性を取り巻く不確実性の範囲をいかに拡大するかを探求する。
再現可能なシナリオベースシミュレーションにより,PET成長率およびDET投資戦略が累積核破壊リスクに与える影響を評価する。
より広範なPETガバナンスがなければ、検出が不十分になる可能性がある、戦略的フォークを特定します。
政府や国際機関は、明日の技術に追随できるほどアジャイルなポリシーやツールに投資すべきです。
関連論文リスト
- Rethinking Data Protection in the (Generative) Artificial Intelligence Era [138.07763415496288]
現代の(生産的な)AIモデルやシステムに生じる多様な保護ニーズを捉える4段階の分類法を提案する。
当社のフレームワークは、データユーティリティとコントロールのトレードオフに関する構造化された理解を提供し、AIパイプライン全体にわたっています。
論文 参考訳(メタデータ) (2025-07-03T02:45:51Z) - Information Retrieval in the Age of Generative AI: The RGB Model [77.96475639967431]
本稿では,生成型AIツールの利用の増加に伴って生じる複雑な情報ダイナミクスについて,新たな定量的アプローチを提案する。
本稿では,新たなトピックに応答して情報の生成,索引付け,普及を特徴付けるモデルを提案する。
以上の結果から,AI導入の急激なペースとユーザ依存度の増加は,不正確な情報拡散のリスクを増大させる可能性が示唆された。
論文 参考訳(メタデータ) (2025-04-29T10:21:40Z) - Strategic White Paper on AI Infrastructure for Particle, Nuclear, and Astroparticle Physics: Insights from JENA and EuCAIF [1.952039268768816]
深層学習法は、粒子、核、天体物理学におけるデータ分析、シミュレーション、信号検出において中心的な役割を果たしている。
このホワイトペーパーは、これらの障壁に対処するために、コミュニティ調査によって通知される戦略的ロードマップを提供する。
重要なインフラストラクチャ要件を概説し、トレーニングイニシアチブを優先し、今後5年間で基本物理学にわたってAI能力を拡張するための資金戦略を提案している。
論文 参考訳(メタデータ) (2025-03-18T12:11:11Z) - Computational Safety for Generative AI: A Signal Processing Perspective [65.268245109828]
計算安全性は、GenAIにおける安全性の定量的評価、定式化、研究を可能にする数学的枠組みである。
ジェイルブレイクによる悪意のあるプロンプトを検出するために, 感度解析と損失景観解析がいかに有効かを示す。
我々は、AIの安全性における信号処理の鍵となる研究課題、機会、そして重要な役割について論じる。
論文 参考訳(メタデータ) (2025-02-18T02:26:50Z) - AI Horizon Scanning -- White Paper p3395, IEEE-SA. Part III: Technology Watch: a selection of key developments, emerging technologies, and industry trends in Artificial Intelligence [0.3277163122167434]
生成人工知能(AI)技術は、Chat-GPTの画期的なリリースに続く前例のない急速な開発段階にある。
AI製品の展開が幾何学的に増加するにつれて、AI技術が提供する脅威と機会にかなりの注意が向けられている。
この写本は、IEEE-SA の p3995 It Standard for implementation of Safeguards, Controls, and Preventive Techniques for Artificial Intelligence Models の開発を知らせる一連の白書の3番目のものである。
論文 参考訳(メタデータ) (2024-11-05T19:04:42Z) - Standardization Trends on Safety and Trustworthiness Technology for Advanced AI [0.0]
大規模言語モデルと基礎モデルに基づく最近のAI技術は、人工知能に近づいたり、超えたりしている。
これらの進歩は、高度なAIの安全性と信頼性に関する懸念を引き起こしている。
AIの安全性と信頼性を確保するため、国際的に合意された標準を開発するための努力が実施されている。
論文 参考訳(メタデータ) (2024-10-29T15:50:24Z) - The Shadow of Fraud: The Emerging Danger of AI-powered Social Engineering and its Possible Cure [30.431292911543103]
社会工学(SE)攻撃は個人と組織双方にとって重大な脅威である。
人工知能(AI)の進歩は、よりパーソナライズされ説得力のある攻撃を可能にすることによって、これらの脅威を強化する可能性がある。
本研究は、SE攻撃機構を分類し、その進化を分析し、これらの脅威を測定する方法を探る。
論文 参考訳(メタデータ) (2024-07-22T17:37:31Z) - Securing the Digital World: Protecting smart infrastructures and digital
industries with Artificial Intelligence (AI)-enabled malware and intrusion
detection [0.0]
サイバー犯罪は 政府や企業 市民社会に対する 世界的な脅威として現れています
本稿では、現代のデジタルエコシステムを保護するため、AIによるサイバー脅威検出について検討する。
論文 参考訳(メタデータ) (2023-10-15T09:35:56Z) - AI Maintenance: A Robustness Perspective [91.28724422822003]
我々は、AIライフサイクルにおけるロバストネスの課題を強調し、自動車のメンテナンスに類似させることで、AIのメンテナンスを動機付ける。
本稿では,ロバストネスリスクの検出と軽減を目的としたAIモデル検査フレームワークを提案する。
我々のAIメンテナンスの提案は、AIライフサイクル全体を通して堅牢性評価、状態追跡、リスクスキャン、モデル硬化、規制を促進する。
論文 参考訳(メタデータ) (2023-01-08T15:02:38Z) - Qlib: An AI-oriented Quantitative Investment Platform [86.8580406876954]
AI技術は、量的投資システムに新たな課題を提起した。
Qlibは、その可能性の実現、研究の強化、定量的投資におけるAIテクノロジの価値の創造を目的とする。
論文 参考訳(メタデータ) (2020-09-22T12:57:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。