論文の概要: Domestic frontier AI regulation, an IAEA for AI, an NPT for AI, and a US-led Allied Public-Private Partnership for AI: Four institutions for governing and developing frontier AI
- arxiv url: http://arxiv.org/abs/2507.06379v1
- Date: Tue, 08 Jul 2025 20:32:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-10 17:37:43.382382
- Title: Domestic frontier AI regulation, an IAEA for AI, an NPT for AI, and a US-led Allied Public-Private Partnership for AI: Four institutions for governing and developing frontier AI
- Title(参考訳): 国内的フロンティアAI規制、AIのためのIAEA、AIのためのNPT、AIのための米国主導の同盟公民パートナーシップ:フロンティアAIの管理と開発のための4つの機関
- Authors: Haydn Belfield,
- Abstract要約: 私は、フロンティアAIの管理と開発のための4つの制度を探求します。
国内体制は、AIのためのIAEAを通じて調和し、監視することができる。
これは、AIのためのセキュアチップ協定、NPT(Non-Proliferation Treaty)によって支持される。
米国と同盟国のメガプロジェクトによって、フロンティア訓練が実施される可能性がある。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Compute governance can underpin international institutions for the governance of frontier AI. To demonstrate this I explore four institutions for governing and developing frontier AI. Next steps for compute-indexed domestic frontier AI regulation could include risk assessments and pre-approvals, data centre usage reports, and release gate regulation. Domestic regimes could be harmonized and monitored through an International AI Agency - an International Atomic Energy Agency (IAEA) for AI. This could be backed up by a Secure Chips Agreement - a Non-Proliferation Treaty (NPT) for AI. This would be a non-proliferation regime for advanced chips, building on the chip export controls - states that do not have an IAIA-certified frontier regulation regime would not be allowed to import advanced chips. Frontier training runs could be carried out by a megaproject between the USA and its allies - a US-led Allied Public-Private Partnership for frontier AI. As a project to develop advanced AI, this could have significant advantages over alternatives led by Big Tech or particular states: it could be more legitimate, secure, safe, non-adversarial, peaceful, and less prone to misuse. For each of these four scenarios, a key incentive for participation is access to the advanced AI chips that are necessary for frontier training runs and large-scale inference. Together, they can create a situation in which governments can be reassured that frontier AI is developed and deployed in a secure manner with misuse minimised and benefits widely shared. Building these institutions may take years or decades, but progress is incremental and evolutionary and the first steps have already been taken.
- Abstract(参考訳): コンピューティングガバナンスは、フロンティアAIのガバナンスのための国際機関を支えることができる。
これを実証するために、フロンティアAIの管理と開発のための4つの機関を調査します。
計算インデックス付き国内フロンティアAI規制の次のステップには、リスクアセスメントと事前承認、データセンタの利用報告、リリースゲート規制が含まれる。
国内体制は、AIのための国際AIエージェンシー、国際原子力エージェンシー(IAEA)を通じて調和し、監視することができる。
これは、AIのためのセキュアチップ協定、NPT(Non-Proliferation Treaty)によって支持される。
IAIAが認定したフロンティア規制体制を持っていない国では、先進的なチップを輸入することは許されない。
米国が主導するフロンティアAIのための連合軍公民権パートナーシップである米国と同盟国のメガプロジェクトによって、フロンティアトレーニングが実施される可能性がある。
高度なAIを開発するプロジェクトとして、これはBig Techや特定の州がリードする代替手段よりも大きな利点がある。
これら4つのシナリオのそれぞれに対して、参加する上で重要なインセンティブは、フロンティアトレーニングの実行と大規模推論に必要な高度なAIチップへのアクセスである。
彼らは共に、政府がフロンティアAIを開発し、安全に展開し、誤用を最小限に抑え、広く共有されている利益を享受できる状況を作ることができる。
これらの施設の建設には数年から数十年かかるかもしれないが、進歩は徐々に進化し、最初の段階はすでに始まっている。
関連論文リスト
- From Turing to Tomorrow: The UK's Approach to AI Regulation [0.8339209730515343]
我々は著作権、差別、AIエージェントに関する最新の法的枠組みについて論じている。
英国がAIの規制を正しく取得すれば、民主社会がAIの利益を利用してリスクを管理しながらどのように活用できるかを実証できるかもしれない。
論文 参考訳(メタデータ) (2025-07-03T10:54:43Z) - AI threats to national security can be countered through an incident regime [55.2480439325792]
我々は、AIシステムからの潜在的な国家安全保障脅威に対抗することを目的とした、法的に義務付けられたポストデプロイAIインシデントシステムを提案する。
提案したAIインシデント体制は,3段階に分けられる。第1フェーズは,‘AIインシデント’とみなすような,新たな運用方法を中心に展開される。
第2フェーズと第3フェーズでは、AIプロバイダが政府機関にインシデントを通知し、政府機関がAIプロバイダのセキュリティおよび安全手順の修正に関与するべきだ、と説明されている。
論文 参考訳(メタデータ) (2025-03-25T17:51:50Z) - The AI Pentad, the CHARME$^{2}$D Model, and an Assessment of Current-State AI Regulation [5.231576332164012]
本稿では,コアAIコンポーネントの観点から,AI規制の統一モデルを確立することを目的とする。
まず、AIの5つの重要なコンポーネントで構成されるAI Pentadを紹介します。
次に、AI登録と開示、AI監視、AI執行機構を含むAI規制イネージャをレビューする。
論文 参考訳(メタデータ) (2025-03-08T22:58:41Z) - Superintelligence Strategy: Expert Version [64.7113737051525]
AI開発を不安定にすることで、大国間の対立の可能性が高まる可能性がある。
スーパーインテリジェンス — ほぼすべての認知タスクにおいて、AIが人間よりもはるかに優れている — が、AI研究者によって期待されている。
本稿では,相互保証型AI誤動作の概念を紹介する。
論文 参考訳(メタデータ) (2025-03-07T17:53:24Z) - Taking control: Policies to address extinction risks from AI [0.0]
AI企業からの自発的なコミットメントは不適切で不十分な反応である、と私たちは主張する。
先進的なAIの脅威に有意義に対処する3つの政策提案について述べる。
論文 参考訳(メタデータ) (2023-10-31T15:53:14Z) - Oversight for Frontier AI through a Know-Your-Customer Scheme for
Compute Providers [0.8547032097715571]
Know-Your-Customer (KYC) は、銀行部門がクライアントの識別と検証のために開発した標準である。
KYCは、既存の輸出管理におけるフロンティアAI開発とクローズループの監視を強化するメカニズムを提供するかもしれない。
AIチップの購入を制限する戦略とは異なり、計算へのデジタルアクセスを規制することは、より正確な制御を提供する。
論文 参考訳(メタデータ) (2023-10-20T16:17:29Z) - Multinational AGI Consortium (MAGIC): A Proposal for International
Coordination on AI [0.0]
MAGICは、先進的なAIを開発することを許された世界で唯一の機関である。
我々は,グローバルガバナンス体制としてのMAGICが,先進的なAIの長期的かつ安全な規制の基盤となる,未来に対する肯定的なビジョンを提案する。
論文 参考訳(メタデータ) (2023-10-13T16:12:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。