論文の概要: Secure and Efficient Migration of Large Enclaves in a Data Center
- arxiv url: http://arxiv.org/abs/2311.06991v4
- Date: Thu, 12 Jun 2025 01:50:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 15:37:21.957965
- Title: Secure and Efficient Migration of Large Enclaves in a Data Center
- Title(参考訳): データセンターにおける大規模エンクレーブの安全かつ効率的なマイグレーション
- Authors: Sandeep Kumar, Abhisek Panda, Smruti R. Sarangi,
- Abstract要約: 本稿では,大規模なメモリフットプリントTEEベースのアプリケーションのための,ほぼゼロのダウンタイムライブマイグレーション機構を持つ新しい手法を提案する。
IntelのTEEソリューションであるIntel SGXをベースとしたプロトタイプでは,エンクレーブサイズに関係なく,ほぼゼロに近いダウンタイムを実現しています。
- 参考スコア(独自算出の注目度): 2.708829957859632
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Cloud service providers are increasingly adopting Trusted Execution Environments, or TEEs, to provide hardware guaranteed security to an application executing on remote, untrusted data centers. Often, there is a need to live-migrate such secure applications for load balancing or data center maintenance. Today, state-of-the-art migration methods for TEE still use the decade-old stop-and-copy-based method, which introduces large downtimes. This is because state-of-the-art live-migration approaches do not work for applications that run on TEEs. We propose a novel method that has a near-zero downtime live-migration mechanism for large memory footprint TEE-based applications. We provide two alternatives: a kernel-based approach and a compiler-based approach. Based on the memory usage, we can prefer one approach over the other. Our method is fully compatible with containers, virtual machines (VMs) and microVMs. Our prototype, built on Intel SGX, a TEE solution from Intel, has a near-zero downtime irrespective of enclave size. Our approach reduces the total downtime by 77-96% for a suite of SGX applications with multi-GB memory footprints compared to state-of-the-art TEE-based migration, MigSGX.
- Abstract(参考訳): クラウドサービスプロバイダはTrusted Execution Environments(TEE)を採用することで、リモートで信頼性のないデータセンタで実行されるアプリケーションに対して、ハードウェア保証されたセキュリティを提供する。
多くの場合、ロードバランシングやデータセンタのメンテナンスのために、このようなセキュアなアプリケーションをライブ移行する必要がある。
現在、TEEの最先端のマイグレーション手法は、大規模なダウンタイムをもたらす10年前のストップ・アンド・コピー方式を使っている。
これは、最先端のライブマイグレーションアプローチがTEE上で動作するアプリケーションでは機能しないためです。
本稿では,大規模なメモリフットプリントTEEベースのアプリケーションのための,ほぼゼロのダウンタイムライブマイグレーション機構を持つ新しい手法を提案する。
カーネルベースのアプローチとコンパイラベースのアプローチの2つの選択肢を提供します。
メモリ使用量に基づいて、一方のアプローチがもう一方よりも好まれる。
私たちのメソッドは、コンテナ、仮想マシン(VM)、microVMと完全に互換性があります。
IntelのTEEソリューションであるIntel SGXをベースとしたプロトタイプでは,エンクレーブサイズに関係なく,ほぼゼロのダウンタイムを実現しています。
我々のアプローチは、最先端のTEEベースのマイグレーションであるMigSGXと比較して、マルチGBメモリフットプリントを備えた一連のSGXアプリケーションの総ダウンタイムを77-96%削減する。
関連論文リスト
- MOM: Memory-Efficient Offloaded Mini-Sequence Inference for Long Context Language Models [72.61076288351201]
メモリ効率の良いオフロードミニシーケンス推論(MOM)を提案する。
MOMは重要なレイヤを小さな“ミニシーケンス”に分割し、KVキャッシュのオフロードとシームレスに統合する。
Meta-Llama-3.2-8Bでは、単一のA100 80GB GPU上での最大コンテキスト長を155kから455kに拡張する。
論文 参考訳(メタデータ) (2025-04-16T23:15:09Z) - Retrofitting XoM for Stripped Binaries without Embedded Data Relocation [10.947944442975697]
我々は、x86-64プラットフォーム上でXoMを削除したバイナリにシームレスに再適合させる実用技術であるPXoMを提案する。
我々は、Intelのハードウェア機能であるMemory Protection Keysを利用して、効率的なきめ細かいパーミッションコントロールを提供します。
PXoMは、必要なガジェットをすべて回収するために、小さなウィグルスペースを持つ敵を置き去りにしており、PXoMは現実世界の配備に実用的であることを示唆している。
論文 参考訳(メタデータ) (2024-12-03T03:08:27Z) - Enabling Efficient Serverless Inference Serving for LLM (Large Language Model) in the Cloud [0.0]
レビューレポートでは、サーバレス推論と既存のソリューションにおけるコールドスタートレイテンシについて論じている。
大規模言語モデルのサーバーレス推論におけるコールドスタート問題に対処するために設計されたシステム。
論文 参考訳(メタデータ) (2024-11-23T22:19:37Z) - Devlore: Extending Arm CCA to Integrated Devices A Journey Beyond Memory to Interrupt Isolation [10.221747752230131]
Arm Confidential Computing Architectureは、Realmと呼ばれる抽象化でセンシティブな計算を実行する。
CCAは、プラットフォーム上の統合デバイスがレルムにアクセスすることを許可していない。
本稿では,Devloreについて述べる。
論文 参考訳(メタデータ) (2024-08-11T17:33:48Z) - vTensor: Flexible Virtual Tensor Management for Efficient LLM Serving [53.972175896814505]
大規模言語モデル(LLM)は様々なドメインで広く使われ、数百万の日次要求を処理する。
大規模言語モデル(LLM)は様々なドメインで広く使われ、数百万の日次要求を処理する。
論文 参考訳(メタデータ) (2024-07-22T14:37:58Z) - SecScale: A Scalable and Secure Trusted Execution Environment for Servers [0.36868085124383626]
Intelは、第11世代と第12世代のプロセッサで、最も信頼できるエンクレーブであるSGXを非推奨にする計画だ。
我々は、投機的実行を中心にした新しいアイデアを使用するSecScaleを提案する。
私たちは、最も近い競合相手よりも10%高速です。
論文 参考訳(メタデータ) (2024-07-18T15:14:36Z) - TME-Box: Scalable In-Process Isolation through Intel TME-MK Memory Encryption [11.543384661361232]
クラウドコンピューティングは、単一のプロセス内でワークロードを実行することでパフォーマンスを最適化するために、プロセス内分離に依存している。
既存のプロセス内分離メカニズムは、現代的なクラウド要件には適していない。
本稿では,コモディティx86マシン上で細粒度でスケーラブルなサンドボックスを実現する,新しい分離技術であるTME-Boxを提案する。
論文 参考訳(メタデータ) (2024-07-15T14:09:00Z) - Get More with LESS: Synthesizing Recurrence with KV Cache Compression for Efficient LLM Inference [78.65321721142624]
我々はキー値(KV)キャッシュによって課されるメモリボトルネックに焦点を当てる。
既存のKVキャッシュ手法は、比較的重要でないKVペアの大きなスワストを刈り取ったり、取り除いたりすることでこの問題に対処する。
本稿では,固定サイズキャッシュと退避型キャッシュを簡易に統合したLESSを提案する。
論文 参考訳(メタデータ) (2024-02-14T18:54:56Z) - SpotServe: Serving Generative Large Language Models on Preemptible
Instances [64.18638174004151]
SpotServeは、プリエンプティブルインスタンスにシステムを提供する最初の分散大規模言語モデルである。
SpotServeは、既存のLLMサービスシステムと比較して、P99テールのレイテンシを2.4~9.1倍削減できることを示す。
また、SpotServeはプリエンプティブインスタンスの価格優位性を利用して、オンデマンドインスタンスのみを使用する場合と比較して54%の金銭的コストを節約できることも示しています。
論文 参考訳(メタデータ) (2023-11-27T06:31:17Z) - MemGPT: Towards LLMs as Operating Systems [50.02623936965231]
大規模言語モデル(LLM)はAIに革命をもたらしたが、限られたコンテキストウィンドウによって制約されている。
従来のオペレーティングシステムにおける階層型メモリシステムからのインスピレーションを引き出す技術である仮想コンテキスト管理を提案する。
私たちはMemGPTコードと実験のためのデータをhttps://memgpt.ai.comでリリースします。
論文 参考訳(メタデータ) (2023-10-12T17:51:32Z) - Full Parameter Fine-tuning for Large Language Models with Limited Resources [55.794732214059806]
大規模言語モデル(LLM)は自然言語処理(NLP)に革命をもたらしたが、トレーニングには大量のGPUリソースを必要としている。
我々は,メモリ使用量を削減するために,勾配とパラメータの更新を1ステップで融合する新しい計算,LOMO(LOw-Memory Optimization)を提案する。
論文 参考訳(メタデータ) (2023-06-16T11:37:15Z) - Recurrent Dynamic Embedding for Video Object Segmentation [54.52527157232795]
一定サイズのメモリバンクを構築するためにRDE(Recurrent Dynamic Embedding)を提案する。
本稿では, SAM を長時間の動画でより堅牢にするため, トレーニング段階での無バイアス誘導損失を提案する。
また、メモリバンクの異なる品質のマスクの埋め込みをネットワークが修復できるように、新たな自己補正戦略を設計する。
論文 参考訳(メタデータ) (2022-05-08T02:24:43Z) - Carousel Memory: Rethinking the Design of Episodic Memory for Continual
Learning [19.260402028696916]
継続的な学習(CL)は、以前のタスクから学んだ知識を忘れずに、連続したタスクストリームから学習することを目的としている。
以前の研究では、新しい非i.d.データから学習しながら、過去の観測されたサンプルのサブセットを格納するエピソードメモリ(EM)を利用している。
メモリとストレージ間のサンプルを効率よく移行させることにより,過去の経験を保存し,忘れを軽減すべく,豊富なストレージを活用することを提案する。
論文 参考訳(メタデータ) (2021-10-14T11:27:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。