論文の概要: An International Agreement to Prevent the Premature Creation of Artificial Superintelligence
- arxiv url: http://arxiv.org/abs/2511.10783v2
- Date: Mon, 17 Nov 2025 02:16:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:22.584492
- Title: An International Agreement to Prevent the Premature Creation of Artificial Superintelligence
- Title(参考訳): 人工超知能の早期創出防止のための国際協定
- Authors: Aaron Scher, David Abecassis, Peter Barnett, Brian Abeyta,
- Abstract要約: 本報告では, 人工超知能の早期発達を防止するための国際協定を提案する。
この合意は、現在の安全なAIアプリケーションへのアクセスを維持しながら、危険なAI能力の進歩を停止する。
当事者間の信頼が欠如しているため、検証は合意の重要な部分である。
- 参考スコア(独自算出の注目度): 1.5749416770494706
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many experts argue that premature development of artificial superintelligence (ASI) poses catastrophic risks, including the risk of human extinction from misaligned ASI, geopolitical instability, and misuse by malicious actors. This report proposes an international agreement to prevent the premature development of ASI until AI development can proceed without these risks. The agreement halts dangerous AI capabilities advancement while preserving access to current, safe AI applications. The proposed framework centers on a coalition led by the United States and China that would restrict the scale of AI training and dangerous AI research. Due to the lack of trust between parties, verification is a key part of the agreement. Limits on the scale of AI training are operationalized by FLOP thresholds and verified through the tracking of AI chips and verification of chip use. Dangerous AI research--that which advances toward artificial superintelligence or endangers the agreement's verifiability--is stopped via legal prohibitions and multifaceted verification. We believe the proposal would be technically sufficient to forestall the development of ASI if implemented today, but advancements in AI capabilities or development methods could hurt its efficacy. Additionally, there does not yet exist the political will to put such an agreement in place. Despite these challenges, we hope this agreement can provide direction for AI governance research and policy.
- Abstract(参考訳): 多くの専門家は、人工超知能(ASI)の早期発達は、不一致のAIIによるヒトの絶滅のリスク、地政学的不安定性、悪意のあるアクターによる誤用など、破滅的なリスクを引き起こすと主張している。
本報告では,AI開発がこれらのリスクを伴わずに進むまで,AIの早期開発を防止するための国際協定を提案する。
この合意は、現在の安全なAIアプリケーションへのアクセスを維持しながら、危険なAI能力の進歩を停止する。
提案された枠組みは、米国と中国が主導する、AIトレーニングと危険なAI研究の規模を制限する連合に焦点を当てている。
当事者間の信頼が欠如しているため、検証は合意の重要な部分である。
AIトレーニングの規模に関する制限は、FLOPしきい値によって運用され、AIチップのトラッキングとチップ使用の検証を通じて検証される。
人工超知能を推進し、合意の妥当性を脅かす危険なAI研究は、法的禁止と多面的検証によって停止される。
この提案は、今日実施されればASIの開発を抑えるのに十分な技術的に十分であると信じているが、AI能力や開発手法の進歩は、その効果を損なう可能性がある。
さらに、そのような合意を定めようとする政治的意思は、まだ存在しない。
これらの課題にもかかわらず、この合意がAIガバナンスの研究と政策の方向性を提供することを願っている。
関連論文リスト
- Domestic frontier AI regulation, an IAEA for AI, an NPT for AI, and a US-led Allied Public-Private Partnership for AI: Four institutions for governing and developing frontier AI [0.0]
私は、フロンティアAIの管理と開発のための4つの制度を探求します。
国内体制は、AIのためのIAEAを通じて調和し、監視することができる。
これは、AIのためのセキュアチップ協定、NPT(Non-Proliferation Treaty)によって支持される。
米国と同盟国のメガプロジェクトによって、フロンティア訓練が実施される可能性がある。
論文 参考訳(メタデータ) (2025-07-08T20:32:28Z) - Mechanisms to Verify International Agreements About AI Development [0.0]
報告書は、各国が互いのAI開発とデプロイメントに関する主張を実際に検証する方法を実証することを目的としている。
焦点は国際協定と国家が関与するAI開発だが、これらのアプローチは企業の国内規制にも適用できる。
論文 参考訳(メタデータ) (2025-06-18T20:28:54Z) - Superintelligence Strategy: Expert Version [64.7113737051525]
AI開発を不安定にすることで、大国間の対立の可能性が高まる可能性がある。
スーパーインテリジェンス — ほぼすべての認知タスクにおいて、AIが人間よりもはるかに優れている — が、AI研究者によって期待されている。
本稿では,相互保証型AI誤動作の概念を紹介する。
論文 参考訳(メタデータ) (2025-03-07T17:53:24Z) - Position: Mind the Gap-the Growing Disconnect Between Established Vulnerability Disclosure and AI Security [56.219994752894294]
我々は、AIセキュリティレポートに既存のプロセスを適用することは、AIシステムの特徴的な特徴に対する根本的な欠点のために失敗する運命にあると主張している。
これらの欠点に対処する私たちの提案に基づき、AIセキュリティレポートへのアプローチと、新たなAIパラダイムであるAIエージェントが、AIセキュリティインシデント報告の進展をさらに強化する方法について論じる。
論文 参考訳(メタデータ) (2024-12-19T13:50:26Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - Taking control: Policies to address extinction risks from advanced AI [0.0]
AI企業からの自発的なコミットメントは不適切で不十分な反応である、と私たちは主張する。
先進的なAIの脅威に有意義に対処する3つの政策提案について述べる。
論文 参考訳(メタデータ) (2023-10-31T15:53:14Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - Nuclear Arms Control Verification and Lessons for AI Treaties [0.0]
AIによるセキュリティリスクは、この技術が利用できるという国際的な合意を動機付けている。
この研究は、想定されるケースは核兵器の制御でうまく管理されたレベルに縮小されることを示唆している。
論文 参考訳(メタデータ) (2023-04-08T23:05:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。