論文の概要: Ditto: Elastic Confidential VMs with Secure and Dynamic CPU Scaling
- arxiv url: http://arxiv.org/abs/2409.15542v1
- Date: Mon, 23 Sep 2024 20:52:10 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-26 12:47:38.604870
- Title: Ditto: Elastic Confidential VMs with Secure and Dynamic CPU Scaling
- Title(参考訳): Ditto: セキュアで動的CPUスケーリングを備えたElastic Confidential VM
- Authors: Shixuan Zhao, Mengyuan Li, Mengjia Yan, Zhiqiang Lin,
- Abstract要約: Elastic CVM"とWorker vCPU設計は、より柔軟で費用対効果の高い機密計算環境を実現するための道を開いた。
Elastic CVM"とWorker vCPUの設計は、クラウドリソースの利用を最適化するだけでなく、より柔軟で費用対効果の高い機密計算環境の道を開く。
- 参考スコア(独自算出の注目度): 35.971391128345125
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Confidential Virtual Machines (CVMs) are a type of VMbased Trusted Execution Environments (TEEs) designed to enhance the security of cloud-based VMs, safeguarding them even from malicious hypervisors. Although CVMs have been widely adopted by major cloud service providers, current CVM designs face significant challenges in runtime resource management due to their fixed capacities and lack of transparency. These limitations hamper efficient cloud resource management, leading to increased operational costs and reduced agility in responding to fluctuating workloads. This paper introduces a dynamic CPU resource management approach, featuring the novel concept of "Elastic CVM. This approach allows for hypervisor-assisted runtime adjustment of CPU resources using a specialized vCPU type, termed Worker vCPU. This new approach enhances CPU resource adaptability and operational efficiency without compromising security. Additionally, we introduce a Worker vCPU Abstraction Layer to simplify Worker vCPU deployment and management. To demonstrate the effectiveness of our approach, we have designed and implemented a serverless computing prototype platform, called Ditto. We show that Ditto significantly improves performance and efficiency through finergrain resource management. The concept of "Elastic CVM" and the Worker vCPU design not only optimize cloud resource utilization but also pave the way for more flexible and cost-effective confidential computing environments.
- Abstract(参考訳): CVM(Confidential Virtual Machines)は、クラウドベースのVMのセキュリティを強化するために設計された、VMベースのTrusted Execution Environment(TEE)の一種である。
CVMは主要なクラウドサービスプロバイダによって広く採用されているが、現在のCVMの設計は、その固定容量と透明性の欠如により、ランタイムリソース管理において重大な課題に直面している。
これらの制限により、効率的なクラウドリソース管理が妨げられ、運用コストが増加し、変動するワークロードに対するアジリティが低下する。
本稿では,「Elastic CVM」という新しい概念を取り入れた動的CPUリソース管理手法を紹介する。この手法により,特別なvCPUタイプであるWorker vCPUを用いたCPUリソースのハイパーバイザによるランタイム調整が可能となり,セキュリティを損なうことなくCPUリソースの適応性と運用効率が向上する。さらに,Worker vCPU Abstraction Layerを導入して,Worker vCPUのデプロイメントと管理を簡素化する。このアプローチの有効性を実証するために,Dittoというサーバレスコンピューティングプロトタイププラットフォームを設計,実装した。Dittoは,細粒度リソース管理によるパフォーマンスと効率を著しく向上することを示す。"Elastic CVM"の概念とWorker vCPU設計は,クラウドリソースの最適化だけでなく,より高効率な計算環境を実現する。
関連論文リスト
- DeeR-VLA: Dynamic Inference of Multimodal Large Language Models for Efficient Robot Execution [114.61347672265076]
実世界のロボットのためのMLLMの開発は、ロボットプラットフォームで利用可能な計算能力とメモリ容量が典型的に限られているため、難しい。
活性化MLLMのサイズを自動的に調整するロボットビジョンランゲージ・アクション・モデル(DeeR)の動的早期実行フレームワークを提案する。
DeeR は LLM の計算コストを 5.2-6.5x に削減し、GPU のメモリを 2-6x に削減した。
論文 参考訳(メタデータ) (2024-11-04T18:26:08Z) - Cost-Aware Dynamic Cloud Workflow Scheduling using Self-Attention and Evolutionary Reinforcement Learning [7.653021685451039]
本稿では,クラウドワークフロースケジューリングのための自己注意ポリシーネットワークを提案する。
トレーニングされたSPN-CWSは、すべての候補インスタンスを効果的に処理し、ワークフロータスクを実行するのに最も適したVMインスタンスを特定する。
提案手法は,複数のベンチマークCDMWS問題において,最先端のアルゴリズムよりも顕著に優れている。
論文 参考訳(メタデータ) (2024-09-27T04:45:06Z) - vTensor: Flexible Virtual Tensor Management for Efficient LLM Serving [53.972175896814505]
大規模言語モデル(LLM)は様々なドメインで広く使われ、数百万の日次要求を処理する。
大規模言語モデル(LLM)は様々なドメインで広く使われ、数百万の日次要求を処理する。
論文 参考訳(メタデータ) (2024-07-22T14:37:58Z) - Bridge the Future: High-Performance Networks in Confidential VMs without Trusted I/O devices [9.554247218443939]
信頼されたI/O(Trusted I/O, TIO)は、秘密インパクト(CVM)のためのI/Oパフォーマンスを改善するための魅力的なソリューションである。
本稿では,すべてのI/Oタイプが,特にネットワークI/Oのメリットを享受できるわけではないことを強調する。
セキュアで効率的なデータプレーン開発キット(DPDK)拡張から構築したソフトウェアソリューションであるFOlioについて述べる。
論文 参考訳(メタデータ) (2024-03-05T23:06:34Z) - FusionAI: Decentralized Training and Deploying LLMs with Massive
Consumer-Level GPUs [57.12856172329322]
我々は、巨大な未使用のコンシューマレベルのGPUをアンロックする分散システムを構想する。
このシステムは、CPUとGPUメモリの制限、ネットワーク帯域幅の低さ、ピアとデバイスの多様性など、重要な課題に直面している。
論文 参考訳(メタデータ) (2023-09-03T13:27:56Z) - Energy-efficient Task Adaptation for NLP Edge Inference Leveraging
Heterogeneous Memory Architectures [68.91874045918112]
Adapter-ALBERTは、様々なタスクにわたる最大データ再利用のための効率的なモデル最適化である。
検証されたNLPエッジアクセラレータ上でシミュレーションを行うことにより、モデルを不均一なオンチップメモリアーキテクチャにマッピングする利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T14:40:59Z) - A smart resource management mechanism with trust access control for
cloud computing environment [3.3504365823045044]
この記事では、安全かつパフォーマンス効率の良いクラウド設定におけるワークロード管理パラダイムの概念的フレームワークを提案する。
このパラダイムでは、資源管理ユニットがエネルギーに使われ、効率よく仮想マシンの割り当てを行う。
セキュアな仮想マシン管理部は、リソース管理部を制御し、不正アクセスまたは通信に関するデータを生成する。
論文 参考訳(メタデータ) (2022-12-10T15:00:58Z) - Walle: An End-to-End, General-Purpose, and Large-Scale Production System
for Device-Cloud Collaborative Machine Learning [40.09527159285327]
We build the first end-to-end and general-purpose system, called Walle, for device-cloud collaborative machine learning (ML)
Walleはデプロイメントプラットフォームで構成され、MLタスクを10億規模のデバイスに分散する。データパイプラインはタスク入力を効率的に準備し、計算コンテナはクロスプラットフォームで高性能な実行環境を提供する。
我々はWalleを実践的なeコマースアプリケーションシナリオで評価し、その有効性、効率、スケーラビリティを実証する。
論文 参考訳(メタデータ) (2022-05-30T03:43:35Z) - Combination of Convolutional Neural Network and Gated Recurrent Unit for
Energy Aware Resource Allocation [0.0]
クラウドコンピューティングサービスモデルは、急速に成長し、非効率なリソース使用は、クラウドデータセンターにおける高エネルギー消費の最大の原因の1つです。
仮想マシン(VM)のライブマイグレーションと,少数の物理マシン(PM)への統合により,エネルギー消費削減を目的としたクラウドデータセンターの資源配分を行った。
この問題を解決するために、ユーザリクエストのパターンに従って、レイテンシに対するセンシティブなクラスや非センシティブなクラスに分類することが可能で、その後、マイグレーション用に適切なVMを選択することができる。
論文 参考訳(メタデータ) (2021-06-23T05:57:51Z) - Optimizing Deep Learning Recommender Systems' Training On CPU Cluster
Architectures [56.69373580921888]
クラウドコンピューティングセンターのAIサイクルの大部分を占めるRecommender Systemsに注目します。
HPC用に調整された最新のCPUハードウェアとソフトウェア上で動作可能にすることで、パフォーマンスの2桁以上の改善を達成できます。
論文 参考訳(メタデータ) (2020-05-10T14:40:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。