論文の概要: Managing Large Enclaves in a Data Center
- arxiv url: http://arxiv.org/abs/2311.06991v2
- Date: Wed, 31 Jul 2024 08:28:27 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-01 13:37:09.226865
- Title: Managing Large Enclaves in a Data Center
- Title(参考訳): データセンターにおける大規模エンクレーブの管理
- Authors: Sandeep Kumar, Abhisek Panda, Smruti R. Sarangi,
- Abstract要約: ほぼゼロのダウンタイムでセキュアなエンクレーブマイグレーションを実現する新しい手法であるOpsMigを提案する。
我々の最適化は、マルチGBメモリフットプリントを持つIntel SGXアプリケーションスイートの総ダウンタイムを77-96%削減する。
- 参考スコア(独自算出の注目度): 2.708829957859632
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Live migration of applications and VMs in data centers is an old and quintessential problem. In this large body of work, an important open problem still remains, which is the migration of secure enclaves (sandboxes) running on trusted execution environments (TEEs) like Intel SGX. Here, the decade-old stop-and-copy-based method is used, in which the entire application`s execution is stopped and the state is collected and transferred. This method has an exceedingly long downtime when we consider enclaves with large memory footprints. Better solutions have eluded us because of some design limitations posed by TEEs like Intel SGX, such as the opacity of data within enclaves (not visible to the OS/hypervisor) and the lack of mechanisms to track writes on secure pages. We propose a new technique, OptMig, to circumvent these limitations and implement secure enclave migration with a near-zero downtime. We rely on a short compiler pass and propose a novel migration mechanism. Our optimizations reduce the total downtime by 77-96% for a suite of Intel SGX applications that have multi-GB memory footprints. We show results for our system on a real cloud and in settings that use containers, VMs, and microVMs
- Abstract(参考訳): データセンターにおけるアプリケーションとVMのライブマイグレーションは、古くて重要な問題である。
これはIntel SGXのような信頼できる実行環境(TEE)で動作するセキュアなエンクレーブ(サンドボックス)のマイグレーションである。
ここでは、アプリケーション全体の実行が停止し、状態が収集され、転送される10年前のストップアンドコピーベースのメソッドが使用されます。
メモリフットプリントが大きいエンクレーブを考えると,この手法は極めて長いダウンタイムを持つ。
例えば、エンクレーブ内のデータの不透明さ(OS/ハイパーバイザには見えない)や、セキュアなページの書き込みを追跡するメカニズムの欠如などです。
我々は,これらの制限を回避し,ほぼゼロのダウンタイムでセキュアなエンクレーブマイグレーションを実現する新しい手法であるOpsMigを提案する。
我々は、短いコンパイラパスに依存し、新しいマイグレーションメカニズムを提案する。
我々の最適化は、マルチGBメモリフットプリントを持つIntel SGXアプリケーションスイートの総ダウンタイムを77-96%削減する。
実際のクラウドとコンテナ、VM、マイクロVMを使用する設定で、システムの結果を示します。
関連論文リスト
- Devlore: Extending Arm CCA to Integrated Devices A Journey Beyond Memory to Interrupt Isolation [10.221747752230131]
Arm Confidential Computing Architectureは、Realmと呼ばれる抽象化でセンシティブな計算を実行する。
CCAは、プラットフォーム上の統合デバイスがレルムにアクセスすることを許可していない。
本稿では,Devloreについて述べる。
論文 参考訳(メタデータ) (2024-08-11T17:33:48Z) - vTensor: Flexible Virtual Tensor Management for Efficient LLM Serving [53.972175896814505]
大規模言語モデル(LLM)は様々なドメインで広く使われ、数百万の日次要求を処理する。
大規模言語モデル(LLM)は様々なドメインで広く使われ、数百万の日次要求を処理する。
論文 参考訳(メタデータ) (2024-07-22T14:37:58Z) - SecScale: A Scalable and Secure Trusted Execution Environment for Servers [0.36868085124383626]
Intelは、第11世代と第12世代のプロセッサで、最も信頼できるエンクレーブであるSGXを非推奨にする計画だ。
我々は、投機的実行を中心にした新しいアイデアを使用するSecScaleを提案する。
私たちは、最も近い競合相手よりも10%高速です。
論文 参考訳(メタデータ) (2024-07-18T15:14:36Z) - TME-Box: Scalable In-Process Isolation through Intel TME-MK Memory Encryption [11.543384661361232]
クラウドコンピューティングは、単一のプロセス内でワークロードを実行することでパフォーマンスを最適化するために、プロセス内分離に依存している。
既存のプロセス内分離メカニズムは、現代的なクラウド要件には適していない。
本稿では,コモディティx86マシン上で細粒度でスケーラブルなサンドボックスを実現する,新しい分離技術であるTME-Boxを提案する。
論文 参考訳(メタデータ) (2024-07-15T14:09:00Z) - SNPGuard: Remote Attestation of SEV-SNP VMs Using Open Source Tools [3.7752830020595796]
クラウドコンピューティングは、今日の複雑なコンピューティング要求に対処するための、ユビキタスなソリューションである。
VMベースのTrusted Execution Environments(TEEs)は、この問題を解決するための有望なソリューションです。
クラウドサービスプロバイダをロックアウトするための強力なアイソレーション保証を提供する。
論文 参考訳(メタデータ) (2024-06-03T10:48:30Z) - Get More with LESS: Synthesizing Recurrence with KV Cache Compression for Efficient LLM Inference [78.65321721142624]
我々はキー値(KV)キャッシュによって課されるメモリボトルネックに焦点を当てる。
既存のKVキャッシュ手法は、比較的重要でないKVペアの大きなスワストを刈り取ったり、取り除いたりすることでこの問題に対処する。
本稿では,固定サイズキャッシュと退避型キャッシュを簡易に統合したLESSを提案する。
論文 参考訳(メタデータ) (2024-02-14T18:54:56Z) - SpotServe: Serving Generative Large Language Models on Preemptible
Instances [64.18638174004151]
SpotServeは、プリエンプティブルインスタンスにシステムを提供する最初の分散大規模言語モデルである。
SpotServeは、既存のLLMサービスシステムと比較して、P99テールのレイテンシを2.4~9.1倍削減できることを示す。
また、SpotServeはプリエンプティブインスタンスの価格優位性を利用して、オンデマンドインスタンスのみを使用する場合と比較して54%の金銭的コストを節約できることも示しています。
論文 参考訳(メタデータ) (2023-11-27T06:31:17Z) - MemGPT: Towards LLMs as Operating Systems [50.02623936965231]
大規模言語モデル(LLM)はAIに革命をもたらしたが、限られたコンテキストウィンドウによって制約されている。
従来のオペレーティングシステムにおける階層型メモリシステムからのインスピレーションを引き出す技術である仮想コンテキスト管理を提案する。
私たちはMemGPTコードと実験のためのデータをhttps://memgpt.ai.comでリリースします。
論文 参考訳(メタデータ) (2023-10-12T17:51:32Z) - Full Parameter Fine-tuning for Large Language Models with Limited Resources [55.794732214059806]
大規模言語モデル(LLM)は自然言語処理(NLP)に革命をもたらしたが、トレーニングには大量のGPUリソースを必要としている。
我々は,メモリ使用量を削減するために,勾配とパラメータの更新を1ステップで融合する新しい計算,LOMO(LOw-Memory Optimization)を提案する。
論文 参考訳(メタデータ) (2023-06-16T11:37:15Z) - Recurrent Dynamic Embedding for Video Object Segmentation [54.52527157232795]
一定サイズのメモリバンクを構築するためにRDE(Recurrent Dynamic Embedding)を提案する。
本稿では, SAM を長時間の動画でより堅牢にするため, トレーニング段階での無バイアス誘導損失を提案する。
また、メモリバンクの異なる品質のマスクの埋め込みをネットワークが修復できるように、新たな自己補正戦略を設計する。
論文 参考訳(メタデータ) (2022-05-08T02:24:43Z) - Carousel Memory: Rethinking the Design of Episodic Memory for Continual
Learning [19.260402028696916]
継続的な学習(CL)は、以前のタスクから学んだ知識を忘れずに、連続したタスクストリームから学習することを目的としている。
以前の研究では、新しい非i.d.データから学習しながら、過去の観測されたサンプルのサブセットを格納するエピソードメモリ(EM)を利用している。
メモリとストレージ間のサンプルを効率よく移行させることにより,過去の経験を保存し,忘れを軽減すべく,豊富なストレージを活用することを提案する。
論文 参考訳(メタデータ) (2021-10-14T11:27:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。