論文の概要: Flexible Hardware-Enabled Guarantees for AI Compute
- arxiv url: http://arxiv.org/abs/2506.15093v1
- Date: Wed, 18 Jun 2025 03:04:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-19 19:35:51.53399
- Title: Flexible Hardware-Enabled Guarantees for AI Compute
- Title(参考訳): AIコンピューティングのためのフレキシブルハードウェア対応保証
- Authors: James Petrie, Onni Aarne, Nora Ammann, David Dalrymple,
- Abstract要約: フレキシブルなハードウェア対応保証(flexHEG)を提案し、AI開発に関する信頼性とプライバシ保護の検証とクレームの実施を可能にする。
flexHEGは、アクセル使用を監視する監査可能な保証プロセッサと、物理的なタンパー保護を提供するセキュアな囲いで構成される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As artificial intelligence systems become increasingly powerful, they pose growing risks to international security, creating urgent coordination challenges that current governance approaches struggle to address without compromising sensitive information or national security. We propose flexible hardware-enabled guarantees (flexHEGs), that could be integrated with AI accelerators to enable trustworthy, privacy-preserving verification and enforcement of claims about AI development. FlexHEGs consist of an auditable guarantee processor that monitors accelerator usage and a secure enclosure providing physical tamper protection. The system would be fully open source with flexible, updateable verification capabilities. FlexHEGs could enable diverse governance mechanisms including privacy-preserving model evaluations, controlled deployment, compute limits for training, and automated safety protocol enforcement. In this first part of a three part series, we provide a comprehensive introduction of the flexHEG system, including an overview of the governance and security capabilities it offers, its potential development and adoption paths, and the remaining challenges and limitations it faces. While technically challenging, flexHEGs offer an approach to address emerging regulatory and international security challenges in frontier AI development.
- Abstract(参考訳): 人工知能システムがますます強力になるにつれて、国際的セキュリティに対するリスクが増大し、現在のガバナンスアプローチが機密情報や国家安全保障を損なうことなく対処しようとする緊急の調整課題が生じる。
フレキシブルなハードウェア対応保証(flexHEG)を提案し、AIアクセラレータと統合して、信頼できるプライバシ保護の検証とAI開発に関するクレームの実施を可能にする。
FlexHEGは、アクセル使用を監視する監査可能な保証プロセッサと、物理的なタンパー保護を提供するセキュアな囲いで構成される。
システムは完全なオープンソースで、フレキシブルでアップデート可能な検証機能を備えている。
FlexHEGは、プライバシ保護モデル評価、管理されたデプロイメント、トレーニングの計算制限、自動安全プロトコルの実施など、さまざまなガバナンスメカニズムを実現することができる。
この3部シリーズの第1部では、flexHEGシステムの包括的な導入について紹介し、提供するガバナンスとセキュリティ機能の概要、潜在的な開発と採用パス、それに直面する課題と制限について概説する。
技術的には難しいが、flexHEGは、フロンティアAI開発における新たな規制および国際的セキュリティ課題に対処するためのアプローチを提供する。
関連論文リスト
- International Security Applications of Flexible Hardware-Enabled Guarantees [0.0]
flexHEGは、標準化された設計、堅牢なエコシステム防御、AI関連チップの明確な運用パラメータを確立することで、国際的に信頼できるAIガバナンスを可能にする。
悪意ある使用に対処するために増殖を制限すること、コントロールの喪失を防ぐための安全基準を実装すること、軍事AIシステムからのリスクを管理すること、国家主権を尊重しながらバランス・オブ・パワーのメカニズムを通じて戦略的安定性をサポートすること、の4つの重要な国際セキュリティアプリケーションを分析します。
レポートは、AI関連チップの技術的しきい値、既存の非FlexHEGハードウェアの管理、ガバナンスパワーの悪用に対する保護など、重要な実装上の課題に対処する。
論文 参考訳(メタデータ) (2025-06-18T03:10:49Z) - Technical Options for Flexible Hardware-Enabled Guarantees [0.0]
本稿では,AI開発における計算利用に関する検証可能な主張を可能にするために,AIアクセラレータハードウェアを統合したシステムを提案する。
flexHEGシステムは、アクセルの使用を監視し、特定の規則に準拠することを検証する監査可能な保証プロセッサと、物理的な改ざん保護を提供するセキュア・エンクロージャーの2つの主要コンポーネントで構成されている。
論文 参考訳(メタデータ) (2025-06-03T21:37:43Z) - In-House Evaluation Is Not Enough: Towards Robust Third-Party Flaw Disclosure for General-Purpose AI [93.33036653316591]
我々はシステムの安全性を高めるために3つの介入を要求します。
まず、標準化されたAI欠陥レポートと研究者へのエンゲージメントのルールを用いることを提案する。
第2に,GPAIシステムプロバイダが広視野欠陥開示プログラムを採用することを提案する。
第3に,欠陥報告の分布を調整するための改良されたインフラの開発を提唱する。
論文 参考訳(メタデータ) (2025-03-21T05:09:46Z) - SecGenAI: Enhancing Security of Cloud-based Generative AI Applications within Australian Critical Technologies of National Interest [0.0]
SecGenAIはクラウドベースのGenAIアプリケーションのための包括的なセキュリティフレームワークである。
オーストラリアのプライバシ原則、AI倫理原則、オーストラリアサイバーセキュリティセンターおよびデジタルトランスフォーメーションエージェンシーのガイドラインに従っている。
論文 参考訳(メタデータ) (2024-07-01T09:19:50Z) - Towards Guaranteed Safe AI: A Framework for Ensuring Robust and Reliable AI Systems [88.80306881112313]
我々は、AI安全性に対する一連のアプローチを紹介し、定義する。
これらのアプローチの中核的な特徴は、高保証の定量的安全性保証を備えたAIシステムを作ることである。
これら3つのコアコンポーネントをそれぞれ作成するためのアプローチを概説し、主な技術的課題を説明し、それらに対する潜在的なソリューションをいくつか提案します。
論文 参考訳(メタデータ) (2024-05-10T17:38:32Z) - Generative AI for Secure Physical Layer Communications: A Survey [80.0638227807621]
Generative Artificial Intelligence(GAI)は、AIイノベーションの最前線に立ち、多様なコンテンツを生成するための急速な進歩と非並行的な能力を示す。
本稿では,通信ネットワークの物理層におけるセキュリティ向上におけるGAIの様々な応用について,広範な調査を行う。
私たちは、物理的レイヤセキュリティの課題に対処する上で、GAIの役割を掘り下げ、通信の機密性、認証、可用性、レジリエンス、整合性に重点を置いています。
論文 参考訳(メタデータ) (2024-02-21T06:22:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。