論文の概要: Dorami: Privilege Separating Security Monitor on RISC-V TEEs
- arxiv url: http://arxiv.org/abs/2410.03653v1
- Date: Fri, 4 Oct 2024 17:56:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-02 20:58:02.717341
- Title: Dorami: Privilege Separating Security Monitor on RISC-V TEEs
- Title(参考訳): Dorami: RISC-V TEEのセキュリティ監視を分離する秘密
- Authors: Mark Kuhne, Stavros Volos, Shweta Shinde,
- Abstract要約: Dorami - ファームウェアからセキュリティモニタを分離する特権分離アプローチを提案する。
Doramiは既存のISA機能を再使用してアイソレーションを強制し、大きなオーバーヘッドなしに目標を達成する。
- 参考スコア(独自算出の注目度): 3.9203063848927924
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: TEE implementations on RISC-V offer an enclave abstraction by introducing a trusted component called the security monitor (SM). The SM performs critical tasks such as isolating enclaves from each other as well as from the OS by using privileged ISA instructions that enforce the physical memory protection. However, the SM executes at the highest privilege layer on the platform (machine-mode) along side firmware that is not only large in size but also includes third-party vendor code specific to the platform. In this paper, we present Dorami - a privilege separation approach that isolates the SM from the firmware thus reducing the attack surface on TEEs. Dorami re-purposes existing ISA features to enforce its isolation and achieves its goals without large overheads.
- Abstract(参考訳): RISC-V上のTEE実装は、SM(Security Monitor)と呼ばれる信頼できるコンポーネントを導入することで、エンクレーブの抽象化を提供する。
SMは、物理メモリ保護を強制する特権有能なISA命令を使用することで、エンクレーブをOSから分離するなどの重要なタスクを実行する。
しかし、SMは、サイズが大きいだけでなく、プラットフォーム固有のサードパーティのベンダーコードを含むサイドファームウェアとともに、プラットフォーム上の最高特権層(マシンモード)で実行される。
本稿では,ファームウェアからSMを分離し,TEEの攻撃面を低減する特権分離手法であるDoramiを提案する。
Doramiは既存のISA機能を再使用してアイソレーションを強制し、大きなオーバーヘッドなしに目標を達成する。
関連論文リスト
- CaMeLs Can Use Computers Too: System-level Security for Computer Use Agents [60.98294016925157]
AIエージェントは、悪意のあるコンテンツがエージェントの行動をハイジャックして認証情報を盗んだり、金銭的損失を引き起こすような、インジェクション攻撃に弱い。
CUAのためのシングルショットプランニングでは、信頼できるプランナーが、潜在的に悪意のあるコンテンツを観察する前に、条件付きブランチで完全な実行グラフを生成する。
このアーキテクチャ分離は命令インジェクションを効果的に防止するが、ブランチステアリング攻撃を防ぐには追加の対策が必要であることを示す。
論文 参考訳(メタデータ) (2026-01-14T23:06:35Z) - Odysseus: Jailbreaking Commercial Multimodal LLM-integrated Systems via Dual Steganography [77.44136793431893]
本稿では,悪質なクエリを隠蔽して良質な画像に埋め込むために,二重ステガノグラフィーを導入した新しいjailbreakパラダイムを提案する。
我々のOdysseusはいくつかの先駆的で現実的なMLLM統合システムを脱獄し、最大99%の攻撃成功率を達成した。
論文 参考訳(メタデータ) (2025-12-23T08:53:36Z) - SecureInfer: Heterogeneous TEE-GPU Architecture for Privacy-Critical Tensors for Large Language Model Deployment [9.666696979829359]
SecureInferは、計算集約的な操作を信頼できないアクセラレータにオフロードするフレームワークである。
LLaMA-2モデルを用いてSecureInferのプロトタイプを実装し,性能およびセキュリティ指標間で評価する。
論文 参考訳(メタデータ) (2025-10-22T19:17:31Z) - Enabling Security on the Edge: A CHERI Compartmentalized Network Stack [42.78181795494584]
CHERIは、きめ細かい区画化とメモリ保護を可能にすることにより、ハードウェアレベルでの強力なセキュリティを提供する。
ケーススタディでは,Arm Morelloプラットフォーム上にデプロイされたCheriBSDシステム上での分離アプリケーション,TCP/IPライブラリ,ネットワークドライバのトレードオフについて検討した。
論文 参考訳(メタデータ) (2025-07-07T09:37:59Z) - SafePTR: Token-Level Jailbreak Defense in Multimodal LLMs via Prune-then-Restore Mechanism [123.54980913741828]
MLLM(Multimodal Large Language Models)は、視覚的推論をサポートするためにLLMを拡張する。
MLLMは、マルチモーダルなジェイルブレイク攻撃や安全なデプロイメントを妨げる可能性がある。
セーフ・プルー・テン・レストア(Safe Prune-then-Restore, SafePTR)は、有害なトークンを脆弱な層で選択的にプルーすると同時に、その後の層で良質な機能を復元する、トレーニング不要の防御フレームワークである。
論文 参考訳(メタデータ) (2025-07-02T09:22:03Z) - DRIFT: Dynamic Rule-Based Defense with Injection Isolation for Securing LLM Agents [52.92354372596197]
大規模言語モデル(LLM)は、強力な推論と計画能力のため、エージェントシステムの中心となってきています。
この相互作用は、外部ソースからの悪意のある入力がエージェントの振る舞いを誤解させる可能性がある、インジェクション攻撃のリスクも引き起こす。
本稿では,信頼に値するエージェントシステムのための動的ルールベースの分離フレームワークを提案する。
論文 参考訳(メタデータ) (2025-06-13T05:01:09Z) - LLM Agents Should Employ Security Principles [60.03651084139836]
本稿では,大規模言語モデル(LLM)エージェントを大規模に展開する際には,情報セキュリティの確立した設計原則を採用するべきであることを論じる。
AgentSandboxは、エージェントのライフサイクル全体を通して保護を提供するために、これらのセキュリティ原則を組み込んだ概念的なフレームワークである。
論文 参考訳(メタデータ) (2025-05-29T21:39:08Z) - A performance analysis of VM-based Trusted Execution Environments for Confidential Federated Learning [0.0]
Federated Learning(FL)は、最近のプライバシー問題に対処する効果的な方法として登場した分散機械学習アプローチである。
FLだけではモデルやデータ中毒、推論攻撃といった脆弱性に悩まされているため、FLは追加のセキュリティ対策の必要性を導入している。
CC(Confidential Computing)は、ハードウェアベースの信頼できる実行環境(TEE)を活用することで、MLモデルとデータの機密性と整合性を保護するパラダイムである。
論文 参考訳(メタデータ) (2025-01-20T15:58:48Z) - CoreGuard: Safeguarding Foundational Capabilities of LLMs Against Model Stealing in Edge Deployment [43.53211005936295]
CoreGuardは、エッジデバイス上でのモデル盗難に対する、計算と通信効率のよいモデル保護アプローチである。
私たちは、CoreGuardがブラックボックスのセキュリティ保証と同じセキュリティ保護を無視可能なオーバーヘッドで達成していることを示します。
論文 参考訳(メタデータ) (2024-10-16T08:14:24Z) - BULKHEAD: Secure, Scalable, and Efficient Kernel Compartmentalization with PKS [16.239598954752594]
カーネルの区画化は、最小特権原理に従う有望なアプローチである。
本稿では,セキュアでスケーラブルで効率的なカーネルコンパートナライズ技術であるBULKHEADを提案する。
ロード可能なカーネルモジュールを分割するプロトタイプシステムをLinux v6.1で実装する。
論文 参考訳(メタデータ) (2024-09-15T04:11:26Z) - VeriCHERI: Exhaustive Formal Security Verification of CHERI at the RTL [4.652188875442064]
CHERIはハードウェアに直接、きめ細かいメモリ保護を提供し、強制する。
VeriCHERIはISA仕様を一切必要としないという点で、従来のものと概念的に異なる。
CHERIの変種を実装したRISC-Vベースのプロセッサ上で,VeriCHERIの有効性とスケーラビリティを示す。
論文 参考訳(メタデータ) (2024-07-26T11:48:55Z) - Cabin: Confining Untrusted Programs within Confidential VMs [13.022056111810599]
機密コンピューティングは、信頼できないクラウドから機密性の高い計算を保護します。
CVMは大規模で脆弱なオペレーティングシステムカーネルを伴い、カーネルの弱点を悪用する攻撃を受けやすい。
本研究では、最新のAMD SEV-SNP技術を利用したゲストVM内での独立した実行フレームワークであるCabinを提案する。
論文 参考訳(メタデータ) (2024-07-17T06:23:28Z) - Defensive Prompt Patch: A Robust and Interpretable Defense of LLMs against Jailbreak Attacks [59.46556573924901]
本稿では,大規模言語モデル(LLM)のための新しいプロンプトベースの防御機構であるDPPを紹介する。
従来のアプローチとは異なり、DPP は LLM の高能率を維持しながら最小の攻撃成功率 (ASR) を達成するように設計されている。
LLAMA-2-7B-ChatおよびMistral-7B-Instruct-v0.2モデルによる実験結果から,DSPの堅牢性と適応性が確認された。
論文 参考訳(メタデータ) (2024-05-30T14:40:35Z) - Eyes Closed, Safety On: Protecting Multimodal LLMs via Image-to-Text Transformation [98.02846901473697]
我々は,MLLMの本来の安全意識を生かしたトレーニング不要な保護手法であるECSO(Eyes Closed, Safety On)を提案する。
ECSOは、安全でない画像をテキストに適応的に変換することで、より安全な応答を生成し、予め整列されたLCMの本質的な安全性メカニズムを活性化する。
論文 参考訳(メタデータ) (2024-03-14T17:03:04Z) - A New Era in LLM Security: Exploring Security Concerns in Real-World
LLM-based Systems [47.18371401090435]
我々は,LLMではなく,Large Language Model(LLM)システムのセキュリティを分析する。
我々は,多層・多段階のアプローチを提案し,これを最先端のOpenAI GPT4に適用する。
OpenAI GPT4は安全機能を改善するために多くの安全制約を設計しているが、これらの安全制約は攻撃者に対して脆弱である。
論文 参考訳(メタデータ) (2024-02-28T19:00:12Z) - HasTEE+ : Confidential Cloud Computing and Analytics with Haskell [50.994023665559496]
信頼性コンピューティングは、Trusted Execution Environments(TEEs)と呼ばれる特別なハードウェア隔離ユニットを使用して、コテナントクラウドデプロイメントにおける機密コードとデータの保護を可能にする。
低レベルのC/C++ベースのツールチェーンを提供するTEEは、固有のメモリ安全性の脆弱性の影響を受けやすく、明示的で暗黙的な情報フローのリークを監視するための言語構造が欠如している。
私たちは、Haskellに埋め込まれたドメイン固有言語(cla)であるHasTEE+を使って、上記の問題に対処します。
論文 参考訳(メタデータ) (2024-01-17T00:56:23Z) - Citadel: Simple Spectre-Safe Isolation For Real-World Programs That Share Memory [8.414722884952525]
緩和マイクロアーキテクチャ分離(RMI)と呼ばれる新しいセキュリティ機能を導入する。
RMIは、攻撃者とメモリを共有できない機密プログラムを許可し、情報漏洩を非投機的実行に制限する。
エンドツーエンドのプロトタイプであるCitadelは、Linuxをブートしてセキュアなアプリケーションを実行するFPGAベースのマルチコアプロセッサで構成されています。
論文 参考訳(メタデータ) (2023-06-26T17:51:23Z) - Efficient Privacy-Preserving Machine Learning with Lightweight Trusted Hardware [20.21755520998494]
本稿では,小規模な専用セキュリティプロセッサによるセキュアな機械学習推論プラットフォームを提案する。
我々は、最先端の分散プライバシ保存機械学習(PPML)プロトコルと比較して、大幅な性能向上を実現している。
我々の技術は、TEEにおけるセキュアメモリのサイズに制限されず、ResNet18やTransformerのような高容量な現代的なニューラルネットワークをサポートできます。
論文 参考訳(メタデータ) (2022-10-18T20:06:06Z) - Safe RAN control: A Symbolic Reinforcement Learning Approach [62.997667081978825]
本稿では,無線アクセスネットワーク(RAN)アプリケーションの安全管理のためのシンボル強化学習(SRL)アーキテクチャを提案する。
我々は、ユーザが所定のセルネットワークトポロジに対して高レベルの論理的安全性仕様を指定できる純粋に自動化された手順を提供する。
ユーザがシステムに意図仕様を設定するのを支援するために開発されたユーザインターフェース(UI)を導入し、提案するエージェントの動作の違いを検査する。
論文 参考訳(メタデータ) (2021-06-03T16:45:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。