論文の概要: Managing Large Enclaves in a Data Center
- arxiv url: http://arxiv.org/abs/2311.06991v1
- Date: Mon, 13 Nov 2023 00:08:37 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-18 23:32:03.952534
- Title: Managing Large Enclaves in a Data Center
- Title(参考訳): データセンターにおける大規模エンクレーブの管理
- Authors: Sandeep Kumar, Smruti R. Sarangi,
- Abstract要約: 私たちは、TEE対応アプリケーションで大規模なメモリフットプリントをライブ移行するためのエンドツーエンドソリューションであるOpsMigを紹介します。
当社のアプローチでは、開発者がアプリケーションを変更する必要はないが、短時間で独立したコンパイルパスと特別なソフトウェアライブラリのサポートが必要である。
- 参考スコア(独自算出の注目度): 3.174768030369157
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Live migration of an application or VM is a well-known technique for load balancing, performance optimization, and resource management. To minimize the total downtime during migration, two popular methods -- pre-copy or post-copy -- are used in practice. These methods scale to large VMs and applications since the downtime is independent of the memory footprint of an application. However, in a secure, trusted execution environment (TEE) like Intel's scalable SGX, the state-of-the-art still uses the decade-old stop-and-copy method, where the total downtime is proportional to the application's memory footprint. This is primarily due to the fact that TEEs like Intel SGX do not expose memory and page table accesses to the OS, quite unlike unsecure applications. However, with modern TEE solutions that efficiently support large applications, such as Intel's Scalable SGX and AMD's Epyc, it is high time that TEE migration methods also evolve to enable live migration of large TEE applications with minimal downtime (stop-and-copy cannot be used any more). We present OptMig, an end-to-end solution for live migrating large memory footprints in TEE-enabled applications. Our approach does not require a developer to modify the application; however, we need a short, separate compilation pass and specialized software library support. Our optimizations reduce the total downtime by 98% for a representative microbenchmark that uses 20GB of secure memory and by 90 -- 96% for a suite of Intel SGX applications that have multi-GB memory footprints.
- Abstract(参考訳): アプリケーションやVMのライブマイグレーションは、ロードバランシング、パフォーマンス最適化、リソース管理においてよく知られているテクニックだ。
移行中の総ダウンタイムを最小限にするために、実際には2つの一般的なメソッド(プレコピーまたはポストコピー)が使用されている。
これらのメソッドは、ダウンタイムがアプリケーションのメモリフットプリントに依存しないため、大きなVMやアプリケーションにスケールする。
しかし、IntelのスケーラブルなSGXのようなセキュアで信頼性の高い実行環境(TEE)では、最先端技術は10年前のストップ・アンド・コピー方式を使用しており、総ダウンタイムはアプリケーションのメモリフットプリントに比例する。
これは主に、Intel SGXのようなTEEが、安全でないアプリケーションとは異なり、メモリとページテーブルへのアクセスを公開していないためである。
しかし、IntelのScalable SGXやAMDのEpycのような大規模アプリケーションを効率的にサポートする最新のTEEソリューションでは、TEEマイグレーションメソッドも進化して、ダウンタイムを最小限にした大規模なTEEアプリケーションのライブマイグレーションを可能にする(ストップアンドコピーはもはや使用できない)。
私たちは、TEE対応アプリケーションで大規模なメモリフットプリントをライブ移行するためのエンドツーエンドソリューションであるOpsMigを紹介します。
当社のアプローチでは、開発者がアプリケーションを変更する必要はないが、短時間で独立したコンパイルパスと特別なソフトウェアライブラリのサポートが必要である。
最適化により、20GBのセキュアメモリを使用する代表マイクロベンチマークの総ダウンタイムを98%削減し、マルチGBメモリフットプリントを備えたIntel SGXアプリケーションスイートの90-96%削減しました。
関連論文リスト
- Shaping the Safety Boundaries: Understanding and Defending Against Jailbreaks in Large Language Models [59.25318174362368]
大規模言語モデル(LLM)におけるジェイルブレークは、LLMを騙して有害なテキストを生成するというセキュリティ上の問題である。
我々は7つの異なるジェイルブレイク法を詳細に分析し、不一致が不十分な観察サンプルから生じることを確認した。
安全境界内でのアクティベーションを適応的に制限する「textbfActivation Boundary Defense (ABD)」という新しい防衛法を提案する。
論文 参考訳(メタデータ) (2024-12-22T14:18:39Z) - Retrofitting XoM for Stripped Binaries without Embedded Data Relocation [10.947944442975697]
我々は、x86-64プラットフォーム上でXoMを削除したバイナリにシームレスに再適合させる実用技術であるPXoMを提案する。
我々は、Intelのハードウェア機能であるMemory Protection Keysを利用して、効率的なきめ細かいパーミッションコントロールを提供します。
PXoMは、必要なガジェットをすべて回収するために、小さなウィグルスペースを持つ敵を置き去りにしており、PXoMは現実世界の配備に実用的であることを示唆している。
論文 参考訳(メタデータ) (2024-12-03T03:08:27Z) - Devlore: Extending Arm CCA to Integrated Devices A Journey Beyond Memory to Interrupt Isolation [10.221747752230131]
Arm Confidential Computing Architectureは、Realmと呼ばれる抽象化でセンシティブな計算を実行する。
CCAは、プラットフォーム上の統合デバイスがレルムにアクセスすることを許可していない。
本稿では,Devloreについて述べる。
論文 参考訳(メタデータ) (2024-08-11T17:33:48Z) - vTensor: Flexible Virtual Tensor Management for Efficient LLM Serving [53.972175896814505]
大規模言語モデル(LLM)は様々なドメインで広く使われ、数百万の日次要求を処理する。
大規模言語モデル(LLM)は様々なドメインで広く使われ、数百万の日次要求を処理する。
論文 参考訳(メタデータ) (2024-07-22T14:37:58Z) - SecScale: A Scalable and Secure Trusted Execution Environment for Servers [0.36868085124383626]
Intelは、第11世代と第12世代のプロセッサで、最も信頼できるエンクレーブであるSGXを非推奨にする計画だ。
我々は、投機的実行を中心にした新しいアイデアを使用するSecScaleを提案する。
私たちは、最も近い競合相手よりも10%高速です。
論文 参考訳(メタデータ) (2024-07-18T15:14:36Z) - TME-Box: Scalable In-Process Isolation through Intel TME-MK Memory Encryption [11.543384661361232]
クラウドコンピューティングは、単一のプロセス内でワークロードを実行することでパフォーマンスを最適化するために、プロセス内分離に依存している。
既存のプロセス内分離メカニズムは、現代的なクラウド要件には適していない。
本稿では,コモディティx86マシン上で細粒度でスケーラブルなサンドボックスを実現する,新しい分離技術であるTME-Boxを提案する。
論文 参考訳(メタデータ) (2024-07-15T14:09:00Z) - Get More with LESS: Synthesizing Recurrence with KV Cache Compression for Efficient LLM Inference [78.65321721142624]
我々はキー値(KV)キャッシュによって課されるメモリボトルネックに焦点を当てる。
既存のKVキャッシュ手法は、比較的重要でないKVペアの大きなスワストを刈り取ったり、取り除いたりすることでこの問題に対処する。
本稿では,固定サイズキャッシュと退避型キャッシュを簡易に統合したLESSを提案する。
論文 参考訳(メタデータ) (2024-02-14T18:54:56Z) - MemGPT: Towards LLMs as Operating Systems [50.02623936965231]
大規模言語モデル(LLM)はAIに革命をもたらしたが、限られたコンテキストウィンドウによって制約されている。
従来のオペレーティングシステムにおける階層型メモリシステムからのインスピレーションを引き出す技術である仮想コンテキスト管理を提案する。
私たちはMemGPTコードと実験のためのデータをhttps://memgpt.ai.comでリリースします。
論文 参考訳(メタデータ) (2023-10-12T17:51:32Z) - Full Parameter Fine-tuning for Large Language Models with Limited Resources [55.794732214059806]
大規模言語モデル(LLM)は自然言語処理(NLP)に革命をもたらしたが、トレーニングには大量のGPUリソースを必要としている。
我々は,メモリ使用量を削減するために,勾配とパラメータの更新を1ステップで融合する新しい計算,LOMO(LOw-Memory Optimization)を提案する。
論文 参考訳(メタデータ) (2023-06-16T11:37:15Z) - Recurrent Dynamic Embedding for Video Object Segmentation [54.52527157232795]
一定サイズのメモリバンクを構築するためにRDE(Recurrent Dynamic Embedding)を提案する。
本稿では, SAM を長時間の動画でより堅牢にするため, トレーニング段階での無バイアス誘導損失を提案する。
また、メモリバンクの異なる品質のマスクの埋め込みをネットワークが修復できるように、新たな自己補正戦略を設計する。
論文 参考訳(メタデータ) (2022-05-08T02:24:43Z) - Carousel Memory: Rethinking the Design of Episodic Memory for Continual
Learning [19.260402028696916]
継続的な学習(CL)は、以前のタスクから学んだ知識を忘れずに、連続したタスクストリームから学習することを目的としている。
以前の研究では、新しい非i.d.データから学習しながら、過去の観測されたサンプルのサブセットを格納するエピソードメモリ(EM)を利用している。
メモリとストレージ間のサンプルを効率よく移行させることにより,過去の経験を保存し,忘れを軽減すべく,豊富なストレージを活用することを提案する。
論文 参考訳(メタデータ) (2021-10-14T11:27:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。