論文の概要: Dorami: Privilege Separating Security Monitor on RISC-V TEEs
- arxiv url: http://arxiv.org/abs/2410.03653v1
- Date: Fri, 4 Oct 2024 17:56:02 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-02 20:58:02.717341
- Title: Dorami: Privilege Separating Security Monitor on RISC-V TEEs
- Title(参考訳): Dorami: RISC-V TEEのセキュリティ監視を分離する秘密
- Authors: Mark Kuhne, Stavros Volos, Shweta Shinde,
- Abstract要約: Dorami - ファームウェアからセキュリティモニタを分離する特権分離アプローチを提案する。
Doramiは既存のISA機能を再使用してアイソレーションを強制し、大きなオーバーヘッドなしに目標を達成する。
- 参考スコア(独自算出の注目度): 3.9203063848927924
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: TEE implementations on RISC-V offer an enclave abstraction by introducing a trusted component called the security monitor (SM). The SM performs critical tasks such as isolating enclaves from each other as well as from the OS by using privileged ISA instructions that enforce the physical memory protection. However, the SM executes at the highest privilege layer on the platform (machine-mode) along side firmware that is not only large in size but also includes third-party vendor code specific to the platform. In this paper, we present Dorami - a privilege separation approach that isolates the SM from the firmware thus reducing the attack surface on TEEs. Dorami re-purposes existing ISA features to enforce its isolation and achieves its goals without large overheads.
- Abstract(参考訳): RISC-V上のTEE実装は、SM(Security Monitor)と呼ばれる信頼できるコンポーネントを導入することで、エンクレーブの抽象化を提供する。
SMは、物理メモリ保護を強制する特権有能なISA命令を使用することで、エンクレーブをOSから分離するなどの重要なタスクを実行する。
しかし、SMは、サイズが大きいだけでなく、プラットフォーム固有のサードパーティのベンダーコードを含むサイドファームウェアとともに、プラットフォーム上の最高特権層(マシンモード)で実行される。
本稿では,ファームウェアからSMを分離し,TEEの攻撃面を低減する特権分離手法であるDoramiを提案する。
Doramiは既存のISA機能を再使用してアイソレーションを強制し、大きなオーバーヘッドなしに目標を達成する。
関連論文リスト
- CoreGuard: Safeguarding Foundational Capabilities of LLMs Against Model Stealing in Edge Deployment [43.53211005936295]
CoreGuardは、エッジデバイス上でのモデル盗難に対する、計算と通信効率のよいモデル保護アプローチである。
私たちは、CoreGuardがブラックボックスのセキュリティ保証と同じセキュリティ保護を無視可能なオーバーヘッドで達成していることを示します。
論文 参考訳(メタデータ) (2024-10-16T08:14:24Z) - BULKHEAD: Secure, Scalable, and Efficient Kernel Compartmentalization with PKS [16.239598954752594]
カーネルの区画化は、最小特権原理に従う有望なアプローチである。
本稿では,セキュアでスケーラブルで効率的なカーネルコンパートナライズ技術であるBULKHEADを提案する。
ロード可能なカーネルモジュールを分割するプロトタイプシステムをLinux v6.1で実装する。
論文 参考訳(メタデータ) (2024-09-15T04:11:26Z) - VeriCHERI: Exhaustive Formal Security Verification of CHERI at the RTL [4.652188875442064]
CHERIはハードウェアに直接、きめ細かいメモリ保護を提供し、強制する。
VeriCHERIはISA仕様を一切必要としないという点で、従来のものと概念的に異なる。
CHERIの変種を実装したRISC-Vベースのプロセッサ上で,VeriCHERIの有効性とスケーラビリティを示す。
論文 参考訳(メタデータ) (2024-07-26T11:48:55Z) - Cabin: Confining Untrusted Programs within Confidential VMs [13.022056111810599]
機密コンピューティングは、信頼できないクラウドから機密性の高い計算を保護します。
CVMは大規模で脆弱なオペレーティングシステムカーネルを伴い、カーネルの弱点を悪用する攻撃を受けやすい。
本研究では、最新のAMD SEV-SNP技術を利用したゲストVM内での独立した実行フレームワークであるCabinを提案する。
論文 参考訳(メタデータ) (2024-07-17T06:23:28Z) - Defensive Prompt Patch: A Robust and Interpretable Defense of LLMs against Jailbreak Attacks [59.46556573924901]
本稿では,大規模言語モデル(LLM)のための新しいプロンプトベースの防御機構であるDPPを紹介する。
従来のアプローチとは異なり、DPP は LLM の高能率を維持しながら最小の攻撃成功率 (ASR) を達成するように設計されている。
LLAMA-2-7B-ChatおよびMistral-7B-Instruct-v0.2モデルによる実験結果から,DSPの堅牢性と適応性が確認された。
論文 参考訳(メタデータ) (2024-05-30T14:40:35Z) - Eyes Closed, Safety On: Protecting Multimodal LLMs via Image-to-Text Transformation [98.02846901473697]
我々は,MLLMの本来の安全意識を生かしたトレーニング不要な保護手法であるECSO(Eyes Closed, Safety On)を提案する。
ECSOは、安全でない画像をテキストに適応的に変換することで、より安全な応答を生成し、予め整列されたLCMの本質的な安全性メカニズムを活性化する。
論文 参考訳(メタデータ) (2024-03-14T17:03:04Z) - A New Era in LLM Security: Exploring Security Concerns in Real-World
LLM-based Systems [47.18371401090435]
我々は,LLMではなく,Large Language Model(LLM)システムのセキュリティを分析する。
我々は,多層・多段階のアプローチを提案し,これを最先端のOpenAI GPT4に適用する。
OpenAI GPT4は安全機能を改善するために多くの安全制約を設計しているが、これらの安全制約は攻撃者に対して脆弱である。
論文 参考訳(メタデータ) (2024-02-28T19:00:12Z) - HasTEE+ : Confidential Cloud Computing and Analytics with Haskell [50.994023665559496]
信頼性コンピューティングは、Trusted Execution Environments(TEEs)と呼ばれる特別なハードウェア隔離ユニットを使用して、コテナントクラウドデプロイメントにおける機密コードとデータの保護を可能にする。
低レベルのC/C++ベースのツールチェーンを提供するTEEは、固有のメモリ安全性の脆弱性の影響を受けやすく、明示的で暗黙的な情報フローのリークを監視するための言語構造が欠如している。
私たちは、Haskellに埋め込まれたドメイン固有言語(cla)であるHasTEE+を使って、上記の問題に対処します。
論文 参考訳(メタデータ) (2024-01-17T00:56:23Z) - Efficient Privacy-Preserving Machine Learning with Lightweight Trusted Hardware [20.21755520998494]
本稿では,小規模な専用セキュリティプロセッサによるセキュアな機械学習推論プラットフォームを提案する。
我々は、最先端の分散プライバシ保存機械学習(PPML)プロトコルと比較して、大幅な性能向上を実現している。
我々の技術は、TEEにおけるセキュアメモリのサイズに制限されず、ResNet18やTransformerのような高容量な現代的なニューラルネットワークをサポートできます。
論文 参考訳(メタデータ) (2022-10-18T20:06:06Z) - Safe RAN control: A Symbolic Reinforcement Learning Approach [62.997667081978825]
本稿では,無線アクセスネットワーク(RAN)アプリケーションの安全管理のためのシンボル強化学習(SRL)アーキテクチャを提案する。
我々は、ユーザが所定のセルネットワークトポロジに対して高レベルの論理的安全性仕様を指定できる純粋に自動化された手順を提供する。
ユーザがシステムに意図仕様を設定するのを支援するために開発されたユーザインターフェース(UI)を導入し、提案するエージェントの動作の違いを検査する。
論文 参考訳(メタデータ) (2021-06-03T16:45:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。