論文の概要: Citadel: Enclaves with Microarchitectural Isolation and Secure Shared Memory on a Speculative Out-of-Order Processor
- arxiv url: http://arxiv.org/abs/2306.14882v3
- Date: Tue, 20 Feb 2024 00:31:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-03-25 23:38:50.948901
- Title: Citadel: Enclaves with Microarchitectural Isolation and Secure Shared Memory on a Speculative Out-of-Order Processor
- Title(参考訳): Citadel: 投機的なアウトオブオーダプロセッサ上でのマイクロアーキテクチャ分離とセキュアな共有メモリを実現する
- Authors: Jules Drean, Miguel Gomez-Garcia, Fisher Jepsen, Thomas Bourgeat, Srinivas Devadas,
- Abstract要約: Citadelは、マイクロアーキテクチャーを分離した最初のエンクレーブプラットフォームである。
ハードウェア/ソフトウェアの共同設計を利用して,エンクレーブと信頼できないオペレーティングシステム間の共有メモリを実現する方法を示す。
MNISTでトレーニングされた小さなニューラルネットワークを組み込み、プライベートな推論エンクレーブを実行します。
- 参考スコア(独自算出の注目度): 8.414722884952525
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Enclaves or Trusted Execution Environments are trusted-hardware primitives that make it possible to isolate and protect a sensitive program from an untrusted operating system. Unfortunately, almost all existing enclave platforms are vulnerable to microarchitectural side channels and transient execution attacks, and the one academic proposal that is not does not allow programs to interact with the outside world. We present Citadel, to our knowledge, the first enclave platform with microarchitectural isolation to run realistic secure programs on a speculative out-of-order multicore processor. We show how to leverage hardware/software co-design to enable shared memory between an enclave and an untrusted operating system while preventing speculative transmitters between the enclave and a potential adversary. We then evaluate our secure baseline and present further mechanisms to achieve reasonable performance for out-of-the-box programs. Our multicore processor runs on an FPGA and boots untrusted Linux from which users can securely launch and interact with enclaves. To demonstrate our platform capabilities, we run a private inference enclave that embed a small neural network trained on MNIST. A remote user can remotely attest the enclave integrity, perform key exchange and send encrypted input for secure evaluation. We open-source our end-to-end hardware and software infrastructure, hoping to spark more research and bridge the gap between conceptual proposals and FPGA prototypes.
- Abstract(参考訳): EnclavesまたはTrusted Execution Environmentsは、信頼できないオペレーティングシステムからセンシティブなプログラムを分離し、保護できるようにする、信頼できるハードウェアプリミティブである。
残念ながら、ほとんどの既存のエンクレーブプラットフォームは、マイクロアーキテクチャーサイドチャネルや過渡的な実行攻撃に弱い。
我々は、Citadelについて、マイクロアーキテクチャ分離による最初のエンクレーブプラットフォームとして、投機的なアウトオブオーダーマルチコアプロセッサ上で、現実的なセキュアなプログラムを実行することを示します。
本稿では,ハードウェア/ソフトウェアの共同設計を活用して,エンクレーブと非信頼なオペレーティングシステム間の共有メモリを実現するとともに,エンクレーブと潜在的敵との投機的送信を防止する方法について述べる。
次に、セキュアなベースラインを評価し、アウト・オブ・ザ・ボックスプログラムの適切な性能を達成するためのさらなるメカニズムを提案する。
私たちのマルチコアプロセッサはFPGA上で動作し、信頼できないLinuxを起動します。
プラットフォームの能力を実証するために、MNISTでトレーニングされた小さなニューラルネットワークを組み込んだプライベート推論エンクレーブを実行しています。
リモートユーザは、エンクレーブ整合性をリモートで証明し、鍵交換を行い、暗号化された入力を送り、セキュアな評価を行うことができる。
私たちはエンドツーエンドのハードウェアとソフトウェアインフラストラクチャをオープンソースとして公開し、より多くの研究を刺激し、概念的な提案とFPGAプロトタイプのギャップを埋めたいと考えています。
関連論文リスト
- μRL: Discovering Transient Execution Vulnerabilities Using Reinforcement Learning [4.938372714332782]
本稿では,SpectreやMeltdownといったマイクロアーキテクチャの脆弱性を発見する上での課題に対して,強化学習を用いることを提案する。
我々のRLエージェントはプロセッサと対話し、リアルタイムフィードバックから学び、命令シーケンスを優先順位付けすることで脆弱性を明らかにする。
論文 参考訳(メタデータ) (2025-02-20T06:42:03Z) - Comprehensive Kernel Safety in the Spectre Era: Mitigations and Performance Evaluation (Extended Version) [2.0436753359071913]
レイアウトのランダム化は、メモリ分離を伴うシステムにおいて、同等の安全性を保証できることを示す。
実際には、投機的実行とサイドチャネルは、レイアウトのランダム化に対する脅威として認識される。
サイドチャネルと投機的実行を使用できる攻撃者に対しては,カーネルの安全性を回復できないことを示す。
論文 参考訳(メタデータ) (2024-11-27T07:06:28Z) - A Scheduling-Aware Defense Against Prefetching-Based Side-Channel Attacks [16.896693436047137]
プリフェッチと呼ばれるメモリの投機的ロードは、現実世界のCPUでは一般的である。
プリフェッチは、RSA、AES、ECDH実装で使用されるキーなど、プロセス分離やリークシークレットをバイパスするために利用することができる。
我々はx86_64とARMプロセッサに対する対策を実装した。
論文 参考訳(メタデータ) (2024-10-01T07:12:23Z) - BULKHEAD: Secure, Scalable, and Efficient Kernel Compartmentalization with PKS [16.239598954752594]
カーネルの区画化は、最小特権原理に従う有望なアプローチである。
本稿では,セキュアでスケーラブルで効率的なカーネルコンパートナライズ技術であるBULKHEADを提案する。
ロード可能なカーネルモジュールを分割するプロトタイプシステムをLinux v6.1で実装する。
論文 参考訳(メタデータ) (2024-09-15T04:11:26Z) - Compromising Embodied Agents with Contextual Backdoor Attacks [69.71630408822767]
大型言語モデル(LLM)は、エンボディドインテリジェンスの発展に変化をもたらした。
本稿では,このプロセスにおけるバックドアセキュリティの重大な脅威を明らかにする。
ほんの少しの文脈的デモンストレーションを毒殺しただけで、攻撃者はブラックボックスLDMの文脈的環境を隠蔽することができる。
論文 参考訳(メタデータ) (2024-08-06T01:20:12Z) - PriRoAgg: Achieving Robust Model Aggregation with Minimum Privacy Leakage for Federated Learning [49.916365792036636]
フェデレートラーニング(FL)は、大規模分散ユーザデータを活用する可能性から、最近大きな勢いを増している。
送信されたモデル更新は、センシティブなユーザ情報をリークする可能性があり、ローカルなトレーニングプロセスの集中的な制御の欠如は、モデル更新に対する悪意のある操作の影響を受けやすいグローバルモデルを残します。
我々は、Lagrange符号化計算と分散ゼロ知識証明を利用した汎用フレームワークPriRoAggを開発し、集約されたプライバシを満たすとともに、幅広いロバストな集約アルゴリズムを実行する。
論文 参考訳(メタデータ) (2024-07-12T03:18:08Z) - Jailbreaking as a Reward Misspecification Problem [80.52431374743998]
本稿では,この脆弱性をアライメントプロセス中に不特定性に対処する新たな視点を提案する。
本稿では,報酬の相違の程度を定量化し,その有効性を実証する指標ReGapを紹介する。
ReMissは、報酬ミスの空間で敵のプロンプトを生成する自動レッドチームリングシステムである。
論文 参考訳(メタデータ) (2024-06-20T15:12:27Z) - HasTEE+ : Confidential Cloud Computing and Analytics with Haskell [50.994023665559496]
信頼性コンピューティングは、Trusted Execution Environments(TEEs)と呼ばれる特別なハードウェア隔離ユニットを使用して、コテナントクラウドデプロイメントにおける機密コードとデータの保護を可能にする。
低レベルのC/C++ベースのツールチェーンを提供するTEEは、固有のメモリ安全性の脆弱性の影響を受けやすく、明示的で暗黙的な情報フローのリークを監視するための言語構造が欠如している。
私たちは、Haskellに埋め込まれたドメイン固有言語(cla)であるHasTEE+を使って、上記の問題に対処します。
論文 参考訳(メタデータ) (2024-01-17T00:56:23Z) - Secure Synthesis of Distributed Cryptographic Applications (Technical Report) [1.9707603524984119]
我々はセキュアなプログラムパーティショニングを用いて暗号アプリケーションを合成することを提唱する。
このアプローチは有望だが、そのようなコンパイラのセキュリティに関する公式な結果はスコープに限られている。
我々は、堅牢で効率的なアプリケーションに不可欠な微妙さを扱うコンパイラのセキュリティ証明を開発した。
論文 参考訳(メタデータ) (2024-01-06T02:57:44Z) - Safety and Performance, Why Not Both? Bi-Objective Optimized Model
Compression against Heterogeneous Attacks Toward AI Software Deployment [15.803413192172037]
我々はSafeCompressと呼ばれるテスト駆動スパーストレーニングフレームワークを提案する。
攻撃メカニズムを安全性テストとしてシミュレートすることで、SafeCompressは大きなモデルを小さなものに自動的に圧縮することができる。
コンピュータビジョンと自然言語処理の両タスクのための5つのデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2024-01-02T02:31:36Z) - Beyond Over-Protection: A Targeted Approach to Spectre Mitigation and Performance Optimization [3.4439829486606737]
LLVMの投機的負荷硬化は、投機状態を追跡し、誤特定時に値をマスキングすることで、漏洩を防止する。
既存のサイドチャネルモデル検証フレームワークであるScam-Vを拡張して、Spectre-PHT攻撃に対するプログラムの脆弱性をチェックし、slhアプローチを用いてプログラムの保護を最適化する。
論文 参考訳(メタデータ) (2023-12-15T13:16:50Z) - Code Polymorphism Meets Code Encryption: Confidentiality and Side-Channel Protection of Software Components [0.0]
PolEnは、サイドチャネル攻撃を効果的に軽減するために、対策を組み合わせるツールチェーンとプロセッサアーキテクチャである。
コード暗号化はプロセッサ拡張によってサポートされ、マシン命令はCPU内でのみ復号化される。
プログラムの可観測環境を定期的に変更し、攻撃者が予測できないようにする。
論文 参考訳(メタデータ) (2023-10-11T09:16:10Z) - Evil from Within: Machine Learning Backdoors through Hardware Trojans [72.99519529521919]
バックドアは、自動運転車のようなセキュリティクリティカルなシステムの整合性を損なう可能性があるため、機械学習に深刻な脅威をもたらす。
私たちは、機械学習のための一般的なハードウェアアクセラレーターに完全に存在するバックドアアタックを導入します。
我々は,Xilinx Vitis AI DPUにハードウェアトロイの木馬を埋め込むことにより,攻撃の実現可能性を示す。
論文 参考訳(メタデータ) (2023-04-17T16:24:48Z) - DRSM: De-Randomized Smoothing on Malware Classifier Providing Certified
Robustness [58.23214712926585]
我々は,マルウェア検出領域の非ランダム化スムース化技術を再設計し,DRSM(De-Randomized Smoothed MalConv)を開発した。
具体的には,実行可能ファイルの局所構造を最大に保ちながら,逆数バイトの影響を確実に抑制するウィンドウアブレーション方式を提案する。
私たちは、マルウェア実行ファイルの静的検出という領域で、認証された堅牢性を提供する最初の人です。
論文 参考訳(メタデータ) (2023-03-20T17:25:22Z) - Safety and Performance, Why not Both? Bi-Objective Optimized Model
Compression toward AI Software Deployment [12.153709321048947]
ハイパフォーマンスを維持しながらモデルサイズを圧縮することを目的として、AIソフトウェア圧縮が重要な役割を果たす。
本稿では,安全性と性能の両立の観点から,安全なモデル圧縮問題に対処する。
具体的には、ソフトウェアエンジニアリングにおけるテスト駆動開発(TDD)パラダイムにヒントを得て、SafeCompressというテスト駆動スパーストレーニングフレームワークを提案します。
論文 参考訳(メタデータ) (2022-08-11T04:41:08Z) - Is Vertical Logistic Regression Privacy-Preserving? A Comprehensive
Privacy Analysis and Beyond [57.10914865054868]
垂直ロジスティック回帰(VLR)をミニバッチ降下勾配で訓練した。
我々は、オープンソースのフェデレーション学習フレームワークのクラスにおいて、VLRの包括的で厳密なプライバシー分析を提供する。
論文 参考訳(メタデータ) (2022-07-19T05:47:30Z) - RelaxLoss: Defending Membership Inference Attacks without Losing Utility [68.48117818874155]
より達成可能な学習目標を持つ緩和された損失に基づく新しい学習フレームワークを提案する。
RelaxLossは、簡単な実装と無視可能なオーバーヘッドのメリットを加えた任意の分類モデルに適用できる。
当社のアプローチはMIAに対するレジリエンスの観点から,常に最先端の防御機構より優れています。
論文 参考訳(メタデータ) (2022-07-12T19:34:47Z) - Adversarial EXEmples: A Survey and Experimental Evaluation of Practical
Attacks on Machine Learning for Windows Malware Detection [67.53296659361598]
EXEmplesは、比較的少ない入力バイトを摂動することで、機械学習に基づく検出をバイパスすることができる。
我々は、機械学習モデルに対する過去の攻撃を包含し、一般化するだけでなく、3つの新たな攻撃を含む統一フレームワークを開発する。
これらの攻撃はFull DOS、Extended、Shiftと呼ばれ、DOSヘッダをそれぞれ操作し、拡張し、第1セクションの内容を変更することで、敵のペイロードを注入する。
論文 参考訳(メタデータ) (2020-08-17T07:16:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。