論文の概要: Putting a Padlock on Lambda -- Integrating vTPMs into AWS Firecracker
- arxiv url: http://arxiv.org/abs/2310.03522v1
- Date: Thu, 5 Oct 2023 13:13:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-06 16:13:10.204093
- Title: Putting a Padlock on Lambda -- Integrating vTPMs into AWS Firecracker
- Title(参考訳): LambdaにPadlockを置く -- vTPMをAWS Firecrackerに統合する
- Authors: Melker Veltman, Alexandra Parkegren, Victor Morel
- Abstract要約: ソフトウェアサービスは、明確な信頼関係なしに、クラウドプロバイダに対して暗黙の信頼を置いている。
現在、Trusted Platform Module機能を公開するクラウドプロバイダは存在しない。
仮想TPMデバイスをAmazon Web Servicesによって開発されたFirecrackerに統合することで信頼性を向上させる。
- 参考スコア(独自算出の注目度): 49.1574468325115
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: When software services use cloud providers to run their workloads, they place
implicit trust in the cloud provider, without an explicit trust relationship.
One way to achieve such explicit trust in a computer system is to use a
hardware Trusted Platform Module (TPM), a coprocessor for trusted computing.
However, in the case of managed platform-as-a-service (PaaS) offerings, there
is currently no cloud provider that exposes TPM capabilities. In this paper, we
improve trust by integrating a virtual TPM device into the Firecracker
hypervisor, originally developed by Amazon Web Services. In addition to this,
multiple performance tests along with an attack surface analysis are performed
to evaluate the impact of the changes introduced. We discuss the results and
conclude that the slight performance decrease and attack surface increase are
acceptable trade-offs in order to enable trusted computing in PaaS offerings.
- Abstract(参考訳): ソフトウェアサービスがワークロードを実行するためにクラウドプロバイダを使用するとき、明示的な信頼関係なしに、クラウドプロバイダへの暗黙の信頼を置く。
このようなコンピュータシステムへの明確な信頼を達成する一つの方法は、信頼されたコンピューティングのためのコプロセッサであるハードウェア信頼プラットフォームモジュール(TPM)を使用することである。
しかしながら、マネージドプラットフォーム・アズ・ア・サービス(PaaS)製品の場合、現時点ではTPM機能を公開するクラウドプロバイダはありません。
本稿では,amazon web servicesが開発したfirecrackerハイパーバイザに仮想tpmデバイスを統合することで,信頼度を向上させる。
これに加えて,複数のパフォーマンステストとアタックサーフェス解析を行い,導入した変更の影響を評価する。
結果について議論し、PaaS製品における信頼性の高いコンピューティングを実現するために、パフォーマンスの低下と攻撃面の増大が許容できるトレードオフであると結論付けた。
関連論文リスト
- Robust Federated Learning Mitigates Client-side Training Data
Distribution Inference Attacks [53.210725411547806]
InferGuardは、クライアント側のトレーニングデータ分散推論攻撃に対する防御を目的とした、新しいビザンチン・ロバスト集約ルールである。
実験の結果,我々の防衛機構はクライアント側のトレーニングデータ分布推定攻撃に対する防御に極めて有効であることが示唆された。
論文 参考訳(メタデータ) (2024-03-05T17:41:35Z) - Robust and Actively Secure Serverless Collaborative Learning [48.01929996757643]
コラボレーティブ機械学習(ML)は、分散データからより良いモデルを学ぶために広く利用されている。
学習のための協調的なアプローチは、直感的にユーザデータを保護しますが、サーバ、クライアント、あるいはその両方に対して脆弱なままです。
本稿では、悪意のあるサーバに対してセキュアで、悪意のあるクライアントに対して堅牢なピアツーピア学習方式を提案する。
論文 参考訳(メタデータ) (2023-10-25T14:43:03Z) - SPIRT: A Fault-Tolerant and Reliable Peer-to-Peer Serverless ML Training
Architecture [0.61497722627646]
SPIRTはフォールトトレラントで信頼性があり、セキュアなサーバレスP2P MLトレーニングアーキテクチャである。
本稿では,フォールトトレラントで信頼性が高く,セキュアなサーバレスP2P MLトレーニングアーキテクチャであるSPIRTを紹介する。
論文 参考訳(メタデータ) (2023-09-25T14:01:35Z) - Reconstructing Individual Data Points in Federated Learning Hardened
with Differential Privacy and Secure Aggregation [36.95590214441999]
Federated Learning(FL)は、機械学習モデルを共同でトレーニングするためのフレームワークである。
分散微分プライバシー(DDP)とセキュアアグリゲーション(SA)で保護されたFLに対する攻撃を提案する。
論文 参考訳(メタデータ) (2023-01-09T18:12:06Z) - ScionFL: Efficient and Robust Secure Quantized Aggregation [44.69902593901196]
我々は,フェデレートラーニングのための最初のセキュアアグリゲーションフレームワークであるScionFLを紹介する。
量子化された入力で効率的に動作し、同時に悪意のあるクライアントに対して堅牢性を提供する。
クライアントのオーバーヘッドがなく、サーバ側のオーバーヘッドも緩やかなため、標準的なFLベンチマークでは同等の精度が得られます。
論文 参考訳(メタデータ) (2022-10-13T21:46:55Z) - FLVoogd: Robust And Privacy Preserving Federated Learning [12.568409209047505]
プライバシを保護しながら,サーバとクライアントが共同でビザンチン攻撃を除去する,新たなフェデレート学習手法であるoogdを提案する。
サーバは、S2PCと組み合わされたDBSCAN(Spatial Clustering of Applications)の自動密度ベースの空間クラスタリングを使用して、機密性の高い個人情報を取得せずに、良質な多数派をクラスタリングする。
私たちのフレームワークは自動で適応的なので、サーバ/クライアントはトレーニング中にパラメータをチューニングする必要がありません。
論文 参考訳(メタデータ) (2022-06-24T08:48:15Z) - Federated Learning with Unreliable Clients: Performance Analysis and
Mechanism Design [76.29738151117583]
Federated Learning(FL)は、分散クライアント間で効果的な機械学習モデルをトレーニングするための有望なツールとなっている。
しかし、低品質のモデルは信頼性の低いクライアントによってアグリゲータサーバにアップロードすることができ、劣化やトレーニングの崩壊につながる。
クライアントの信頼できない振る舞いをモデル化し、このようなセキュリティリスクを軽減するための防御メカニズムを提案する。
論文 参考訳(メタデータ) (2021-05-10T08:02:27Z) - Perun: Secure Multi-Stakeholder Machine Learning Framework with GPU
Support [1.5362025549031049]
Perunは機密のマルチステークホルダ機械学習のためのフレームワークである。
ハードウェアアクセラレータ(GPUなど)上でMLトレーニングを実行し、セキュリティ保証を提供する。
CIFAR-10と現実世界の医療データセットのMLトレーニング中に、Perunは161倍から1560倍のスピードアップを達成した。
論文 参考訳(メタデータ) (2021-03-31T08:31:07Z) - Towards Bidirectional Protection in Federated Learning [70.36925233356335]
F2ED-LEARNINGは、悪意のある集中型サーバとビザンティンの悪意のあるクライアントに対して双方向の防御を提供する。
F2ED-LEARNINGは各シャードの更新を安全に集約し、異なるシャードからの更新に対してFilterL2を起動する。
評価の結果,F2ED-LEARNing は最適あるいは最適に近い性能が得られることがわかった。
論文 参考訳(メタデータ) (2020-10-02T19:37:02Z) - A Privacy-Preserving Distributed Architecture for
Deep-Learning-as-a-Service [68.84245063902908]
本稿では,ディープラーニング・アズ・ア・サービスのための分散アーキテクチャを提案する。
クラウドベースのマシンとディープラーニングサービスを提供しながら、ユーザの機密データを保存できる。
論文 参考訳(メタデータ) (2020-03-30T15:12:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。