論文の概要: Demonstrating Restraint
- arxiv url: http://arxiv.org/abs/2602.18139v1
- Date: Fri, 20 Feb 2026 10:57:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-23 18:01:41.297693
- Title: Demonstrating Restraint
- Title(参考訳): 規制の実証
- Authors: L. C. R. Patell, O. E. Guest,
- Abstract要約: 強力なAIシステムの将来の発展により、米国は国際的権力バランスを劇的に変えることができると主張する者もいる。
このような成果は技術的には不可能であり、たとえアメリカのAI開発が国家の敵による十分な深刻な脅威であると認識されたとしても、彼らが米国に対して極端な予防措置をとるリスクは上昇する可能性がある。
予防措置に対する安全保障を強化するために、アメリカ合衆国は抑制戦略を追求することを目指した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Some have claimed that the future development of powerful AI systems would enable the United States to shift the international balance of power dramatically in its favor. Such a feat may not be technically possible; even so, if American AI development is perceived as a sufficiently severe threat by its nation-state adversaries, then the risk that they take extreme preventive action against the United States may rise. To bolster its security against preventive action, the United States could aim to pursue a strategy of restraint by demonstrating that it would not use powerful AI to threaten the survival of other nations. Drawing from the international relations literature that explores how states can make credible commitments, we sketch a set of options that the United States could employ to implement this strategy. In the most challenging setting, where it is certain that the US will unilaterally obtain powerful new capabilities, it is difficult to credibly commit to restraint, though an approach that layers significant policy effort with technical breakthroughs may make credibility achievable. If an adversary has realistic levels of uncertainty about the capabilities and intentions of the United States, a strategy of restraint becomes more feasible. Though restraint faces difficulties, it deserves to be weighed against alternative strategies that have been proposed for avoiding conflict during the transition to a world with advanced AI.
- Abstract(参考訳): 強力なAIシステムの将来の発展は、米国がその好意で国際的権力バランスを劇的に変えることができると主張する者もいる。
このような成果は技術的には不可能であり、たとえアメリカのAI開発が国家の敵による十分な深刻な脅威であると認識されたとしても、彼らが米国に対して極端な予防措置をとるリスクは上昇する可能性がある。
予防措置に対する安全保障を強化するために、米国は、他国の生存を脅かすために強力なAIを使用しないことを示すことによって、抑制戦略を追求する可能性がある。
国家がいかに信用できるコミットメントをできるかを探求する国際関係の文献から、我々は米国がこの戦略を実施するために使える選択肢のセットをスケッチする。
もっとも困難な状況では、米国が一方的に強力な新しい能力を手に入れることは確実だが、技術的ブレークスルーで重要な政策努力を積み重ねるアプローチは信頼性を達成できるかもしれない。
敵がアメリカの能力と意図について現実的に不確実性を持っている場合、抑制戦略はより実現可能である。
抑制は困難に直面するが、先進的なAIを持つ世界への移行の間、対立を避けるために提案された代替戦略に対して考慮すべきである。
関連論文リスト
- An International Agreement to Prevent the Premature Creation of Artificial Superintelligence [1.5749416770494706]
本報告では, 人工超知能の早期発達を防止するための国際協定を提案する。
この合意は、現在の安全なAIアプリケーションへのアクセスを維持しながら、危険なAI能力の進歩を停止する。
当事者間の信頼が欠如しているため、検証は合意の重要な部分である。
論文 参考訳(メタデータ) (2025-11-13T20:07:29Z) - Robust Driving Control for Autonomous Vehicles: An Intelligent General-sum Constrained Adversarial Reinforcement Learning Approach [56.34189898996741]
本稿では,戦略目標の敵とロバストな駆動エージェントからなる,新しいロバストな自律運転手法を提案する。
IGCARLは、最先端の手法よりも成功率を少なくとも27.9%向上させ、敵の攻撃に対して優れた堅牢性を示す。
論文 参考訳(メタデータ) (2025-10-10T06:21:36Z) - AI threats to national security can be countered through an incident regime [55.2480439325792]
我々は、AIシステムからの潜在的な国家安全保障脅威に対抗することを目的とした、法的に義務付けられたポストデプロイAIインシデントシステムを提案する。
提案したAIインシデント体制は,3段階に分けられる。第1フェーズは,‘AIインシデント’とみなすような,新たな運用方法を中心に展開される。
第2フェーズと第3フェーズでは、AIプロバイダが政府機関にインシデントを通知し、政府機関がAIプロバイダのセキュリティおよび安全手順の修正に関与するべきだ、と説明されている。
論文 参考訳(メタデータ) (2025-03-25T17:51:50Z) - Superintelligence Strategy: Expert Version [64.7113737051525]
AI開発を不安定にすることで、大国間の対立の可能性が高まる可能性がある。
スーパーインテリジェンス — ほぼすべての認知タスクにおいて、AIが人間よりもはるかに優れている — が、AI研究者によって期待されている。
本稿では,相互保証型AI誤動作の概念を紹介する。
論文 参考訳(メタデータ) (2025-03-07T17:53:24Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - Multinational AGI Consortium (MAGIC): A Proposal for International
Coordination on AI [0.0]
MAGICは、先進的なAIを開発することを許された世界で唯一の機関である。
我々は,グローバルガバナンス体制としてのMAGICが,先進的なAIの長期的かつ安全な規制の基盤となる,未来に対する肯定的なビジョンを提案する。
論文 参考訳(メタデータ) (2023-10-13T16:12:26Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。