論文の概要: Secure and Efficient Migration of Large Enclaves in a Data Center
- arxiv url: http://arxiv.org/abs/2311.06991v4
- Date: Thu, 12 Jun 2025 01:50:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 15:37:21.957965
- Title: Secure and Efficient Migration of Large Enclaves in a Data Center
- Title(参考訳): データセンターにおける大規模エンクレーブの安全かつ効率的なマイグレーション
- Authors: Sandeep Kumar, Abhisek Panda, Smruti R. Sarangi,
- Abstract要約: 本稿では,大規模なメモリフットプリントTEEベースのアプリケーションのための,ほぼゼロのダウンタイムライブマイグレーション機構を持つ新しい手法を提案する。
IntelのTEEソリューションであるIntel SGXをベースとしたプロトタイプでは,エンクレーブサイズに関係なく,ほぼゼロに近いダウンタイムを実現しています。
- 参考スコア(独自算出の注目度): 2.708829957859632
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Cloud service providers are increasingly adopting Trusted Execution Environments, or TEEs, to provide hardware guaranteed security to an application executing on remote, untrusted data centers. Often, there is a need to live-migrate such secure applications for load balancing or data center maintenance. Today, state-of-the-art migration methods for TEE still use the decade-old stop-and-copy-based method, which introduces large downtimes. This is because state-of-the-art live-migration approaches do not work for applications that run on TEEs. We propose a novel method that has a near-zero downtime live-migration mechanism for large memory footprint TEE-based applications. We provide two alternatives: a kernel-based approach and a compiler-based approach. Based on the memory usage, we can prefer one approach over the other. Our method is fully compatible with containers, virtual machines (VMs) and microVMs. Our prototype, built on Intel SGX, a TEE solution from Intel, has a near-zero downtime irrespective of enclave size. Our approach reduces the total downtime by 77-96% for a suite of SGX applications with multi-GB memory footprints compared to state-of-the-art TEE-based migration, MigSGX.
- Abstract(参考訳): クラウドサービスプロバイダはTrusted Execution Environments(TEE)を採用することで、リモートで信頼性のないデータセンタで実行されるアプリケーションに対して、ハードウェア保証されたセキュリティを提供する。
多くの場合、ロードバランシングやデータセンタのメンテナンスのために、このようなセキュアなアプリケーションをライブ移行する必要がある。
現在、TEEの最先端のマイグレーション手法は、大規模なダウンタイムをもたらす10年前のストップ・アンド・コピー方式を使っている。
これは、最先端のライブマイグレーションアプローチがTEE上で動作するアプリケーションでは機能しないためです。
本稿では,大規模なメモリフットプリントTEEベースのアプリケーションのための,ほぼゼロのダウンタイムライブマイグレーション機構を持つ新しい手法を提案する。
カーネルベースのアプローチとコンパイラベースのアプローチの2つの選択肢を提供します。
メモリ使用量に基づいて、一方のアプローチがもう一方よりも好まれる。
私たちのメソッドは、コンテナ、仮想マシン(VM)、microVMと完全に互換性があります。
IntelのTEEソリューションであるIntel SGXをベースとしたプロトタイプでは,エンクレーブサイズに関係なく,ほぼゼロのダウンタイムを実現しています。
我々のアプローチは、最先端のTEEベースのマイグレーションであるMigSGXと比較して、マルチGBメモリフットプリントを備えた一連のSGXアプリケーションの総ダウンタイムを77-96%削減する。
関連論文リスト
- Put Teacher in Student's Shoes: Cross-Distillation for Ultra-compact Model Compression Framework [48.66685912952879]
We introduced Edge Ultra-lIte BERT framework with a novel cross-distillation method。
我々は,自然言語理解(NLU)タスクにおいて,たった1.91MBの非常にコンパクトなBERTモデルを実現する。
論文 参考訳(メタデータ) (2025-07-07T03:38:09Z) - MEM1: Learning to Synergize Memory and Reasoning for Efficient Long-Horizon Agents [84.62985963113245]
我々は,長時間のマルチターンタスクに対して,エージェントが一定のメモリで動作可能な,エンドツーエンドの強化学習フレームワークMEM1を紹介する。
各ターンでMEM1は、メモリ統合と推論を共同でサポートするコンパクトな共有内部状態を更新する。
その結果,MEM1-7Bは16目的のマルチホップQAタスクにおいて,Qwen2.5-14B-Instructと比較してメモリ使用量を3.7倍削減し,3.5倍の性能向上を示す。
論文 参考訳(メタデータ) (2025-06-18T19:44:46Z) - MOM: Memory-Efficient Offloaded Mini-Sequence Inference for Long Context Language Models [72.61076288351201]
メモリ効率の良いオフロードミニシーケンス推論(MOM)を提案する。
MOMは重要なレイヤを小さな“ミニシーケンス”に分割し、KVキャッシュのオフロードとシームレスに統合する。
Meta-Llama-3.2-8Bでは、単一のA100 80GB GPU上での最大コンテキスト長を155kから455kに拡張する。
論文 参考訳(メタデータ) (2025-04-16T23:15:09Z) - Mobility-aware Seamless Service Migration and Resource Allocation in Multi-edge IoV Systems [22.33677210691788]
Mobile Edge Computing (MEC)は、IoV(Internet-of-Vehicles)アプリケーションに対する低レイテンシと高帯域幅のサポートを提供する。
MECサーバ間の適切なサービス移行なしに、中断のない高品質なサービスを維持するのは難しい。
既存のソリューションは一般的に事前の知識に依存しており、サービス移行プロセス中に効率的なリソース割り当てを考慮することは滅多にありません。
論文 参考訳(メタデータ) (2025-03-11T07:03:25Z) - Reinforcement Learning for Long-Horizon Interactive LLM Agents [56.9860859585028]
インタラクティブデジタルエージェント(IDA)は、ステートフルなデジタル環境のAPIを利用して、ユーザの要求に応じてタスクを実行する。
対象環境で直接IDAを訓練する強化学習(RL)手法を提案する。
我々は、近似ポリシー最適化のデータおよびメモリ効率の亜種である LOOP を導出する。
論文 参考訳(メタデータ) (2025-02-03T18:35:42Z) - A performance analysis of VM-based Trusted Execution Environments for Confidential Federated Learning [0.0]
Federated Learning(FL)は、最近のプライバシー問題に対処する効果的な方法として登場した分散機械学習アプローチである。
FLだけではモデルやデータ中毒、推論攻撃といった脆弱性に悩まされているため、FLは追加のセキュリティ対策の必要性を導入している。
CC(Confidential Computing)は、ハードウェアベースの信頼できる実行環境(TEE)を活用することで、MLモデルとデータの機密性と整合性を保護するパラダイムである。
論文 参考訳(メタデータ) (2025-01-20T15:58:48Z) - Secure Resource Allocation via Constrained Deep Reinforcement Learning [49.15061461220109]
リソース割り当て、タスクオフロード、セキュリティ、パフォーマンスのバランスをとるフレームワークであるSARMTOを紹介します。
SARMTOは5つのベースラインアプローチを一貫して上回り、最大40%のシステムコスト削減を実現している。
これらの拡張は、複雑な分散コンピューティング環境におけるリソース管理に革命をもたらすSARMTOの可能性を強調している。
論文 参考訳(メタデータ) (2025-01-20T15:52:43Z) - Retrofitting XoM for Stripped Binaries without Embedded Data Relocation [10.947944442975697]
我々は、x86-64プラットフォーム上でXoMを削除したバイナリにシームレスに再適合させる実用技術であるPXoMを提案する。
我々は、Intelのハードウェア機能であるMemory Protection Keysを利用して、効率的なきめ細かいパーミッションコントロールを提供します。
PXoMは、必要なガジェットをすべて回収するために、小さなウィグルスペースを持つ敵を置き去りにしており、PXoMは現実世界の配備に実用的であることを示唆している。
論文 参考訳(メタデータ) (2024-12-03T03:08:27Z) - Enabling Efficient Serverless Inference Serving for LLM (Large Language Model) in the Cloud [0.0]
レビューレポートでは、サーバレス推論と既存のソリューションにおけるコールドスタートレイテンシについて論じている。
大規模言語モデルのサーバーレス推論におけるコールドスタート問題に対処するために設計されたシステム。
論文 参考訳(メタデータ) (2024-11-23T22:19:37Z) - Devlore: Extending Arm CCA to Integrated Devices A Journey Beyond Memory to Interrupt Isolation [10.221747752230131]
Arm Confidential Computing Architectureは、Realmと呼ばれる抽象化でセンシティブな計算を実行する。
CCAは、プラットフォーム上の統合デバイスがレルムにアクセスすることを許可していない。
本稿では,Devloreについて述べる。
論文 参考訳(メタデータ) (2024-08-11T17:33:48Z) - vTensor: Flexible Virtual Tensor Management for Efficient LLM Serving [53.972175896814505]
大規模言語モデル(LLM)は様々なドメインで広く使われ、数百万の日次要求を処理する。
大規模言語モデル(LLM)は様々なドメインで広く使われ、数百万の日次要求を処理する。
論文 参考訳(メタデータ) (2024-07-22T14:37:58Z) - SecScale: A Scalable and Secure Trusted Execution Environment for Servers [0.36868085124383626]
Intelは、第11世代と第12世代のプロセッサで、最も信頼できるエンクレーブであるSGXを非推奨にする計画だ。
我々は、投機的実行を中心にした新しいアイデアを使用するSecScaleを提案する。
私たちは、最も近い競合相手よりも10%高速です。
論文 参考訳(メタデータ) (2024-07-18T15:14:36Z) - TME-Box: Scalable In-Process Isolation through Intel TME-MK Memory Encryption [11.543384661361232]
クラウドコンピューティングは、単一のプロセス内でワークロードを実行することでパフォーマンスを最適化するために、プロセス内分離に依存している。
既存のプロセス内分離メカニズムは、現代的なクラウド要件には適していない。
本稿では,コモディティx86マシン上で細粒度でスケーラブルなサンドボックスを実現する,新しい分離技術であるTME-Boxを提案する。
論文 参考訳(メタデータ) (2024-07-15T14:09:00Z) - TensorTEE: Unifying Heterogeneous TEE Granularity for Efficient Secure Collaborative Tensor Computing [13.983627699836376]
既存の異種TEE設計は、CPUとNPU間のメモリの粒度が微妙で異なるため、協調コンピューティングでは非効率である。
安全な協調計算のための統合テンソル・グラニュラリティ異種TEEを提案する。
その結果、TEEは、既存の作業と比べて、Large Language Model(LLM)トレーニングワークロードのパフォーマンスを4.0倍改善していることがわかった。
論文 参考訳(メタデータ) (2024-07-12T00:35:18Z) - Get More with LESS: Synthesizing Recurrence with KV Cache Compression for Efficient LLM Inference [78.65321721142624]
我々はキー値(KV)キャッシュによって課されるメモリボトルネックに焦点を当てる。
既存のKVキャッシュ手法は、比較的重要でないKVペアの大きなスワストを刈り取ったり、取り除いたりすることでこの問題に対処する。
本稿では,固定サイズキャッシュと退避型キャッシュを簡易に統合したLESSを提案する。
論文 参考訳(メタデータ) (2024-02-14T18:54:56Z) - HasTEE+ : Confidential Cloud Computing and Analytics with Haskell [50.994023665559496]
信頼性コンピューティングは、Trusted Execution Environments(TEEs)と呼ばれる特別なハードウェア隔離ユニットを使用して、コテナントクラウドデプロイメントにおける機密コードとデータの保護を可能にする。
低レベルのC/C++ベースのツールチェーンを提供するTEEは、固有のメモリ安全性の脆弱性の影響を受けやすく、明示的で暗黙的な情報フローのリークを監視するための言語構造が欠如している。
私たちは、Haskellに埋め込まれたドメイン固有言語(cla)であるHasTEE+を使って、上記の問題に対処します。
論文 参考訳(メタデータ) (2024-01-17T00:56:23Z) - SpotServe: Serving Generative Large Language Models on Preemptible
Instances [64.18638174004151]
SpotServeは、プリエンプティブルインスタンスにシステムを提供する最初の分散大規模言語モデルである。
SpotServeは、既存のLLMサービスシステムと比較して、P99テールのレイテンシを2.4~9.1倍削減できることを示す。
また、SpotServeはプリエンプティブインスタンスの価格優位性を利用して、オンデマンドインスタンスのみを使用する場合と比較して54%の金銭的コストを節約できることも示しています。
論文 参考訳(メタデータ) (2023-11-27T06:31:17Z) - MemGPT: Towards LLMs as Operating Systems [50.02623936965231]
大規模言語モデル(LLM)はAIに革命をもたらしたが、限られたコンテキストウィンドウによって制約されている。
従来のオペレーティングシステムにおける階層型メモリシステムからのインスピレーションを引き出す技術である仮想コンテキスト管理を提案する。
私たちはMemGPTコードと実験のためのデータをhttps://memgpt.ai.comでリリースします。
論文 参考訳(メタデータ) (2023-10-12T17:51:32Z) - Full Parameter Fine-tuning for Large Language Models with Limited Resources [55.794732214059806]
大規模言語モデル(LLM)は自然言語処理(NLP)に革命をもたらしたが、トレーニングには大量のGPUリソースを必要としている。
我々は,メモリ使用量を削減するために,勾配とパラメータの更新を1ステップで融合する新しい計算,LOMO(LOw-Memory Optimization)を提案する。
論文 参考訳(メタデータ) (2023-06-16T11:37:15Z) - Recurrent Dynamic Embedding for Video Object Segmentation [54.52527157232795]
一定サイズのメモリバンクを構築するためにRDE(Recurrent Dynamic Embedding)を提案する。
本稿では, SAM を長時間の動画でより堅牢にするため, トレーニング段階での無バイアス誘導損失を提案する。
また、メモリバンクの異なる品質のマスクの埋め込みをネットワークが修復できるように、新たな自己補正戦略を設計する。
論文 参考訳(メタデータ) (2022-05-08T02:24:43Z) - Reinforcement Learning Framework for Server Placement and Workload
Allocation in Multi-Access Edge Computing [9.598394554018164]
本稿では,最小コストでMEC設計を実現するために,ネットワーク遅延とエッジサーバ数の両方を最小化する問題に対処する。
本稿では,この問題を解決するためのマルコフ決定プロセス(MDP)の設計において,状態空間,行動空間,ペナルティ関数の効率的な表現とモデル化を行う新しいRLフレームワークを提案する。
論文 参考訳(メタデータ) (2022-02-21T03:04:50Z) - Asynchronous Parallel Incremental Block-Coordinate Descent for
Decentralized Machine Learning [55.198301429316125]
機械学習(ML)は、巨大なIoT(Internet of Things)ベースのインテリジェントでユビキタスなコンピューティングのビッグデータ駆動モデリングと分析のための重要なテクニックである。
急成長するアプリケーションやデータ量にとって、分散学習は有望な新興パラダイムである。
本稿では,多くのユーザデバイスに分散した分散システム上でMLモデルをトレーニングする問題について検討する。
論文 参考訳(メタデータ) (2022-02-07T15:04:15Z) - Carousel Memory: Rethinking the Design of Episodic Memory for Continual
Learning [19.260402028696916]
継続的な学習(CL)は、以前のタスクから学んだ知識を忘れずに、連続したタスクストリームから学習することを目的としている。
以前の研究では、新しい非i.d.データから学習しながら、過去の観測されたサンプルのサブセットを格納するエピソードメモリ(EM)を利用している。
メモリとストレージ間のサンプルを効率よく移行させることにより,過去の経験を保存し,忘れを軽減すべく,豊富なストレージを活用することを提案する。
論文 参考訳(メタデータ) (2021-10-14T11:27:45Z) - Online Service Migration in Edge Computing with Incomplete Information:
A Deep Recurrent Actor-Critic Method [18.891775769665102]
マルチアクセスエッジコンピューティング(MEC)は、クラウドコンピューティングをネットワークエッジに拡張する新興コンピューティングパラダイムである。
サービス移行には,qos(quality-of-service)を維持するためのユーザサービスの移行場所を決定する必要がある
本稿では,ユーザ中心で効果的なオンライン移行決定が可能な,新たな学習駆動型手法である深層反復型アクタクリティックベースサービスマイグレーション(dracm)を提案する。
論文 参考訳(メタデータ) (2020-12-16T00:16:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。