論文の概要: International Security Applications of Flexible Hardware-Enabled Guarantees
- arxiv url: http://arxiv.org/abs/2506.15100v1
- Date: Wed, 18 Jun 2025 03:10:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-19 19:35:51.537192
- Title: International Security Applications of Flexible Hardware-Enabled Guarantees
- Title(参考訳): フレキシブルハードウェア対応保証の国際的セキュリティ応用
- Authors: Onni Aarne, James Petrie,
- Abstract要約: flexHEGは、標準化された設計、堅牢なエコシステム防御、AI関連チップの明確な運用パラメータを確立することで、国際的に信頼できるAIガバナンスを可能にする。
悪意ある使用に対処するために増殖を制限すること、コントロールの喪失を防ぐための安全基準を実装すること、軍事AIシステムからのリスクを管理すること、国家主権を尊重しながらバランス・オブ・パワーのメカニズムを通じて戦略的安定性をサポートすること、の4つの重要な国際セキュリティアプリケーションを分析します。
レポートは、AI関連チップの技術的しきい値、既存の非FlexHEGハードウェアの管理、ガバナンスパワーの悪用に対する保護など、重要な実装上の課題に対処する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As AI capabilities advance rapidly, flexible hardware-enabled guarantees (flexHEGs) offer opportunities to address international security challenges through comprehensive governance frameworks. This report examines how flexHEGs could enable internationally trustworthy AI governance by establishing standardized designs, robust ecosystem defenses, and clear operational parameters for AI-relevant chips. We analyze four critical international security applications: limiting proliferation to address malicious use, implementing safety norms to prevent loss of control, managing risks from military AI systems, and supporting strategic stability through balance-of-power mechanisms while respecting national sovereignty. The report explores both targeted deployments for specific high-risk facilities and comprehensive deployments covering all AI-relevant compute. We examine two primary governance models: verification-based agreements that enable transparent compliance monitoring, and ruleset-based agreements that automatically enforce international rules through cryptographically-signed updates. Through game-theoretic analysis, we demonstrate that comprehensive flexHEG agreements could remain stable under reasonable assumptions about state preferences and catastrophic risks. The report addresses critical implementation challenges including technical thresholds for AI-relevant chips, management of existing non-flexHEG hardware, and safeguards against abuse of governance power. While requiring significant international coordination, flexHEGs could provide a technical foundation for managing AI risks at the scale and speed necessary to address emerging threats to international security and stability.
- Abstract(参考訳): AI機能が急速に進歩するにつれて、フレキシブルなハードウェア対応保証(flexHEG)は、包括的なガバナンスフレームワークを通じて、国際的なセキュリティ課題に対処する機会を提供する。
本稿では、標準設計、堅牢なエコシステム防御、AI関連チップの明確な運用パラメータを確立することにより、flexHEGが国際的に信頼できるAIガバナンスを実現する方法について検討する。
悪意ある使用に対処するために増殖を制限すること、コントロールの喪失を防ぐための安全基準を実装すること、軍事AIシステムからのリスクを管理すること、国家主権を尊重しながらバランス・オブ・パワーのメカニズムを通じて戦略的安定性をサポートすること、の4つの重要な国際セキュリティアプリケーションを分析します。
このレポートでは、特定のリスクの高い施設を対象としたデプロイメントと、すべてのAI関連計算をカバーする包括的なデプロイメントの両方について調査している。
透明なコンプライアンス監視を可能にする検証ベースの合意と、暗号的に署名された更新を通じて国際ルールを自動的に実施するルールセットベースの合意の2つの主要なガバナンスモデルを検討する。
ゲーム理論分析により、国家の嗜好や破滅的なリスクに関する合理的な仮定の下で、包括的フレキシHG合意が安定していることを示した。
このレポートは、AI関連チップの技術的しきい値、既存の非FlexHEGハードウェアの管理、ガバナンスパワーの乱用に対する保護など、重要な実装上の課題に対処する。
国際的調整が必要な一方で、flexHEGは、国際的なセキュリティと安定性に対する新たな脅威に対処するために必要な規模とスピードでAIリスクを管理するための技術的基盤を提供する可能性がある。
関連論文リスト
- Flexible Hardware-Enabled Guarantees for AI Compute [0.0]
フレキシブルなハードウェア対応保証(flexHEG)を提案し、AI開発に関する信頼性とプライバシ保護の検証とクレームの実施を可能にする。
flexHEGは、アクセル使用を監視する監査可能な保証プロセッサと、物理的なタンパー保護を提供するセキュアな囲いで構成される。
論文 参考訳(メタデータ) (2025-06-18T03:04:44Z) - Technical Options for Flexible Hardware-Enabled Guarantees [0.0]
本稿では,AI開発における計算利用に関する検証可能な主張を可能にするために,AIアクセラレータハードウェアを統合したシステムを提案する。
flexHEGシステムは、アクセルの使用を監視し、特定の規則に準拠することを検証する監査可能な保証プロセッサと、物理的な改ざん保護を提供するセキュア・エンクロージャーの2つの主要コンポーネントで構成されている。
論文 参考訳(メタデータ) (2025-06-03T21:37:43Z) - A Framework for the Assurance of AI-Enabled Systems [0.0]
本稿では,AIシステムのリスク管理と保証のためのクレームベースのフレームワークを提案する。
論文のコントリビューションは、AI保証のためのフレームワークプロセス、関連する定義のセット、AI保証における重要な考慮事項に関する議論である。
論文 参考訳(メタデータ) (2025-04-03T13:44:01Z) - In-House Evaluation Is Not Enough: Towards Robust Third-Party Flaw Disclosure for General-Purpose AI [93.33036653316591]
我々はシステムの安全性を高めるために3つの介入を要求します。
まず、標準化されたAI欠陥レポートと研究者へのエンゲージメントのルールを用いることを提案する。
第2に,GPAIシステムプロバイダが広視野欠陥開示プログラムを採用することを提案する。
第3に,欠陥報告の分布を調整するための改良されたインフラの開発を提唱する。
論文 参考訳(メタデータ) (2025-03-21T05:09:46Z) - Towards Guaranteed Safe AI: A Framework for Ensuring Robust and Reliable AI Systems [88.80306881112313]
我々は、AI安全性に対する一連のアプローチを紹介し、定義する。
これらのアプローチの中核的な特徴は、高保証の定量的安全性保証を備えたAIシステムを作ることである。
これら3つのコアコンポーネントをそれぞれ作成するためのアプローチを概説し、主な技術的課題を説明し、それらに対する潜在的なソリューションをいくつか提案します。
論文 参考訳(メタデータ) (2024-05-10T17:38:32Z) - International Institutions for Advanced AI [47.449762587672986]
国際機関は、高度なAIシステムが人類に利益をもたらすための重要な役割を担っているかもしれない。
本稿では,これらの課題に対処するために,国際レベルで実施可能な一連のガバナンス機能について述べる。
これらの機能を4つの組織モデルに分類し、内部のシナジーを示し、既存の組織で先例を持つ。
論文 参考訳(メタデータ) (2023-07-10T16:55:55Z) - The Opportunity to Regulate Cybersecurity in the EU (and the World):
Recommendations for the Cybersecurity Resilience Act [1.2691047660244335]
ほとんどの状況で安全はサイバーセキュリティになりつつある。
これは、欧州連合で提案され、合意された時に、サイバーセキュリティ回復法に反映されるべきである。
これは、長い間サイバーセキュリティ研究コミュニティが求めてきたこと、そしてソフトではなく明確な厳格な法的ルールを構成するものに基づいている。
論文 参考訳(メタデータ) (2022-05-26T07:20:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。