論文の概要: Technical Options for Flexible Hardware-Enabled Guarantees
- arxiv url: http://arxiv.org/abs/2506.03409v1
- Date: Tue, 03 Jun 2025 21:37:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-05 21:20:14.064981
- Title: Technical Options for Flexible Hardware-Enabled Guarantees
- Title(参考訳): フレキシブルハードウェア対応保証のための技術オプション
- Authors: James Petrie, Onni Aarne,
- Abstract要約: 本稿では,AI開発における計算利用に関する検証可能な主張を可能にするために,AIアクセラレータハードウェアを統合したシステムを提案する。
flexHEGシステムは、アクセルの使用を監視し、特定の規則に準拠することを検証する監査可能な保証プロセッサと、物理的な改ざん保護を提供するセキュア・エンクロージャーの2つの主要コンポーネントで構成されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Frontier AI models pose increasing risks to public safety and international security, creating a pressing need for AI developers to provide credible guarantees about their development activities without compromising proprietary information. We propose Flexible Hardware-Enabled Guarantees (flexHEG), a system integrated with AI accelerator hardware to enable verifiable claims about compute usage in AI development. The flexHEG system consists of two primary components: an auditable Guarantee Processor that monitors accelerator usage and verifies compliance with specified rules, and a Secure Enclosure that provides physical tamper protection. In this report, we analyze technical implementation options ranging from firmware modifications to custom hardware approaches, with focus on an "Interlock" design that provides the Guarantee Processor direct access to accelerator data paths. Our proposed architecture could support various guarantee types, from basic usage auditing to sophisticated automated verification. This work establishes technical foundations for hardware-based AI governance mechanisms that could be deployed by 2027 to address emerging regulatory and international security needs in frontier AI development.
- Abstract(参考訳): フロンティアAIモデルは、公安と国際セキュリティに対するリスクの増加を招き、プロプライエタリな情報を妥協することなく、AI開発者が開発活動に関する信頼できる保証を提供する必要がある。
本稿では,AIアクセラレーションハードウェアと統合されたシステムであるFlexible Hardware-Enabled Guarantees (flexHEG)を提案する。
flexHEGシステムは、アクセルの使用を監視し、特定の規則に準拠することを検証する監査可能な保証プロセッサと、物理的な改ざん保護を提供するセキュア・エンクロージャーの2つの主要コンポーネントで構成されている。
本稿では、ファームウェア修正からカスタムハードウェアアプローチに至るまでの技術的実装オプションを分析し、アクセルデータパスに直接アクセスするGuurrantee Processorを提供する"Interlock"設計に焦点を当てる。
提案アーキテクチャは,基本的な使用状況監査から高度な自動検証に至るまで,さまざまな保証タイプをサポートすることができる。
この研究は、フロンティアAI開発における新たな規制および国際セキュリティニーズに対応するため、2027年までに展開できるハードウェアベースのAIガバナンスメカニズムの技術的基盤を確立する。
関連論文リスト
- Transformers for Secure Hardware Systems: Applications, Challenges, and Outlook [2.9625426098772425]
トランスフォーマーモデルは、複雑な依存関係をモデル化できるため、セキュリティ領域で注目を集めている。
この調査は、ハードウェアセキュリティにおけるTransformerの使用に関する最近の進歩をレビューする。
サイドチャネル分析、ハードウェアトロイの木馬検出、脆弱性分類、デバイスのフィンガープリント、ファームウェアセキュリティなど、主要な領域にわたるアプリケーションを調査している。
論文 参考訳(メタデータ) (2025-05-28T17:22:14Z) - ACRIC: Securing Legacy Communication Networks via Authenticated Cyclic Redundancy Integrity Check [98.34702864029796]
安全クリティカルな業界における最近のセキュリティインシデントは、適切なメッセージ認証の欠如により、攻撃者が悪意のあるコマンドを注入したり、システムの振る舞いを変更することができることを明らかにした。
これらの欠点は、サイバーセキュリティを強化するために圧力をかける必要性を強調する新しい規制を引き起こしている。
我々は,レガシ産業通信をセキュアにするためのメッセージ認証ソリューションであるACRICを紹介する。
論文 参考訳(メタデータ) (2024-11-21T18:26:05Z) - Towards Guaranteed Safe AI: A Framework for Ensuring Robust and Reliable AI Systems [88.80306881112313]
我々は、AI安全性に対する一連のアプローチを紹介し、定義する。
これらのアプローチの中核的な特徴は、高保証の定量的安全性保証を備えたAIシステムを作ることである。
これら3つのコアコンポーネントをそれぞれ作成するためのアプローチを概説し、主な技術的課題を説明し、それらに対する潜在的なソリューションをいくつか提案します。
論文 参考訳(メタデータ) (2024-05-10T17:38:32Z) - Secure Instruction and Data-Level Information Flow Tracking Model for RISC-V [0.0]
不正アクセス、障害注入、およびプライバシー侵害は、信頼できないアクターによる潜在的な脅威である。
本稿では,実行時セキュリティがシステム完全性を保護するために,IFT(Information Flow Tracking)技術を提案する。
本研究では,ハードウェアベース IFT 技術とゲートレベル IFT (GLIFT) 技術を統合したマルチレベル IFT モデルを提案する。
論文 参考訳(メタデータ) (2023-11-17T02:04:07Z) - DASICS: Enhancing Memory Protection with Dynamic Compartmentalization [7.802648283305372]
本稿では,DASICS (Dynamic in-Address-Space isolation by Code Segments) のセキュアプロセッサ設計について述べる。
複数の特権レベルにわたる動的で柔軟なセキュリティ保護、データフロー保護、制御フロー保護、セキュアなシステムコールを提供する。
我々は,DASICSをベースとしたハードウェアFPGAプロトタイプとソフトウェアQEMUシミュレータのプロトタイプを実装し,適応性のためのシステムソフトウェアを改良した。
論文 参考訳(メタデータ) (2023-10-10T09:05:29Z) - A Model Based Framework for Testing Safety and Security in Operational
Technology Environments [0.46040036610482665]
本稿では,テスト中のシステムの安全性とセキュリティの挙動を分析するための有望な手法として,モデルに基づくテスト手法を提案する。
基盤となるフレームワークの構造は、運用技術環境のテストにおいて重要な要素に従って、4つの部分に分けられる。
論文 参考訳(メタデータ) (2023-06-22T05:37:09Z) - VEDLIoT -- Next generation accelerated AIoT systems and applications [4.964750143168832]
VEDLIoTプロジェクトは、分散人工知能(AIoT)アプリケーションのためのエネルギー効率のよいディープラーニング方法論の開発を目指している。
我々は,AIoTシステムに固有の安全性とセキュリティ問題に対処しながら,アルゴリズムの最適化に重点を置いた総合的なアプローチを提案する。
論文 参考訳(メタデータ) (2023-05-09T12:35:00Z) - Trustworthy AI Inference Systems: An Industry Research View [58.000323504158054]
我々は、信頼できるAI推論システムの設計、展開、運用にアプローチするための業界調査ビューを提供する。
信頼された実行環境を用いたAIシステムの機会と課題を強調します。
我々は,産業,アカデミック,政府研究者のグローバルな集団的注意を必要とする,さらなる発展の分野を概説する。
論文 参考訳(メタデータ) (2020-08-10T23:05:55Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。