論文の概要: Toward a Global Regime for Compute Governance: Building the Pause Button
- arxiv url: http://arxiv.org/abs/2506.20530v1
- Date: Wed, 25 Jun 2025 15:18:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-26 21:00:42.812249
- Title: Toward a Global Regime for Compute Governance: Building the Pause Button
- Title(参考訳): コンピューティングガバナンスのグローバルレジームに向けて - Pauseボタンの構築
- Authors: Ananthi Al Ramiah, Raymond Koopmanschap, Josh Thorsteinson, Sadruddin Khan, Jim Zhou, Shafira Noh, Joep Meindertsma, Farhan Shafiq,
- Abstract要約: 計算資源へのアクセスを制限することにより,AIシステムのトレーニングを防止するためのガバナンスシステムを提案する。
技術的、トレーサビリティ、規制という3つの重要な介入ポイントを特定し、それらをガバナンス-執行-検証フレームワークにまとめます。
技術的メカニズムとしては、改ざん防止FLOPキャップ、モデルロック、オフラインライセンスなどがある。
- 参考スコア(独自算出の注目度): 0.4952055253916912
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As AI capabilities rapidly advance, the risk of catastrophic harm from large-scale training runs is growing. Yet the compute infrastructure that enables such development remains largely unregulated. This paper proposes a concrete framework for a global "Compute Pause Button": a governance system designed to prevent dangerously powerful AI systems from being trained by restricting access to computational resources. We identify three key intervention points -- technical, traceability, and regulatory -- and organize them within a Governance--Enforcement--Verification (GEV) framework to ensure rules are clear, violations are detectable, and compliance is independently verifiable. Technical mechanisms include tamper-proof FLOP caps, model locking, and offline licensing. Traceability tools track chips, components, and users across the compute supply chain. Regulatory mechanisms establish constraints through export controls, production caps, and licensing schemes. Unlike post-deployment oversight, this approach targets the material foundations of advanced AI development. Drawing from analogues ranging from nuclear non-proliferation to pandemic-era vaccine coordination, we demonstrate how compute can serve as a practical lever for global cooperation. While technical and political challenges remain, we argue that credible mechanisms already exist, and that the time to build this architecture is now, before the window for effective intervention closes.
- Abstract(参考訳): AI能力が急速に向上するにつれて、大規模なトレーニング実行による破滅的な被害のリスクが高まっている。
しかし、そのような開発を可能にする計算インフラはほとんど無規制のままである。
本稿では、危険なほど強力なAIシステムが、計算資源へのアクセスを制限することによって、トレーニングされるのを防ぐために設計されたガバナンスシステムである、グローバルな"Compute Pause Button"のための具体的なフレームワークを提案する。
技術的、トレーサビリティ、規制という3つの重要な介入ポイントを特定し、ルールを明確にし、違反を検出し、コンプライアンスを独立して検証できるように、ガバナンス-執行-検証(GEV)フレームワークでそれらを組織します。
技術的メカニズムとしては、改ざん防止FLOPキャップ、モデルロック、オフラインライセンスなどがある。
トレーサビリティツールは、計算サプライチェーン全体のチップ、コンポーネント、ユーザを追跡する。
規制機構は輸出規制、生産上限、ライセンス制度を通じて制約を確立する。
デプロイ後の監視とは違って、このアプローチは高度なAI開発の重要な基盤をターゲットにしている。
核の非増殖からパンデミック時代のワクチン調整に至るまでの類推から、計算がグローバルな協力のための実践的なレバーとしてどのように機能するかを実証する。
技術的、政治的課題はまだ残っているが、信頼できるメカニズムはすでに存在しており、このアーキテクチャを構築する時間は、効果的な介入の窓が閉ざされる前である、と我々は論じている。
関連論文リスト
- Explainable AI Systems Must Be Contestable: Here's How to Make It Happen [2.5875936082584623]
本稿では、説明可能なAIにおける競合性の最初の厳密な形式的定義について述べる。
我々は、ヒューマン中心のインターフェース、技術プロセス、組織アーキテクチャにまたがる、設計やポストホックメカニズムのモジュール化されたフレームワークを紹介します。
私たちの作業は実践者に、真のリコースと説明責任をAIシステムに組み込むためのツールを提供しています。
論文 参考訳(メタデータ) (2025-06-02T13:32:05Z) - Watermarking Without Standards Is Not AI Governance [46.71493672772134]
現在の実装は、効果的な監視を提供するのではなく、象徴的なコンプライアンスとして機能するリスクがある、と私たちは主張する。
本稿では,技術標準,監査インフラストラクチャ,実施機構を含む3層フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-27T18:10:04Z) - In-House Evaluation Is Not Enough: Towards Robust Third-Party Flaw Disclosure for General-Purpose AI [93.33036653316591]
我々はシステムの安全性を高めるために3つの介入を要求します。
まず、標準化されたAI欠陥レポートと研究者へのエンゲージメントのルールを用いることを提案する。
第2に,GPAIシステムプロバイダが広視野欠陥開示プログラムを採用することを提案する。
第3に,欠陥報告の分布を調整するための改良されたインフラの開発を提唱する。
論文 参考訳(メタデータ) (2025-03-21T05:09:46Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Computing Power and the Governance of Artificial Intelligence [51.967584623262674]
政府や企業は、AIを管理する手段として計算を活用し始めている。
計算ベースのポリシーと技術は、これらの領域を補助する可能性があるが、実装の準備ができている点で大きなバリエーションがある。
プライバシーや経済的影響、権力の中央集権化といった分野において、ガバナンスの計算方法の素早い、あるいは不十分なアプローチは重大なリスクを伴います。
論文 参考訳(メタデータ) (2024-02-13T21:10:21Z) - A Survey and Comparative Analysis of Security Properties of CAN Authentication Protocols [92.81385447582882]
コントロールエリアネットワーク(CAN)バスは車内通信を本質的に安全でないものにしている。
本稿では,CANバスにおける15の認証プロトコルをレビューし,比較する。
実装の容易性に寄与する本質的な運用基準に基づくプロトコルの評価を行う。
論文 参考訳(メタデータ) (2024-01-19T14:52:04Z) - Oversight for Frontier AI through a Know-Your-Customer Scheme for
Compute Providers [0.8547032097715571]
Know-Your-Customer (KYC) は、銀行部門がクライアントの識別と検証のために開発した標準である。
KYCは、既存の輸出管理におけるフロンティアAI開発とクローズループの監視を強化するメカニズムを提供するかもしれない。
AIチップの購入を制限する戦略とは異なり、計算へのデジタルアクセスを規制することは、より正確な制御を提供する。
論文 参考訳(メタデータ) (2023-10-20T16:17:29Z) - Contingency-constrained economic dispatch with safe reinforcement learning [7.133681867718039]
強化学習ベース(RL)コントローラはこの課題に対処できるが、それ自体が安全保証を提供することはできない。
本稿では,経済派遣のための公式なRLコントローラを提案する。
従来の制約を時間依存制約によって拡張する。
安全でないアクションは安全なアクション空間に投影され、制約付きゾノトペ集合表現を計算効率に活用する。
論文 参考訳(メタデータ) (2022-05-12T16:52:48Z) - KrakN: Transfer Learning framework for thin crack detection in
infrastructure maintenance [0.0]
現在適用されている手法は時代遅れで、労働集約的で不正確である。
我々は、これらの制限要因を克服するために、カスタムメイドフレームワーク -- KrakN を活用することを提案する。
これにより、デジタル画像上のユニークなインフラストラクチャ欠陥検出装置の開発が可能になり、90%以上の精度を達成することができる。
論文 参考訳(メタデータ) (2020-04-26T09:57:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。