論文の概要: Perun: Secure Multi-Stakeholder Machine Learning Framework with GPU
Support
- arxiv url: http://arxiv.org/abs/2103.16898v1
- Date: Wed, 31 Mar 2021 08:31:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-01 14:43:22.479820
- Title: Perun: Secure Multi-Stakeholder Machine Learning Framework with GPU
Support
- Title(参考訳): Perun: GPUをサポートしたセキュアなマルチステークホルダ機械学習フレームワーク
- Authors: Wojciech Ozga, Do Le Quoc, Christof Fetzer
- Abstract要約: Perunは機密のマルチステークホルダ機械学習のためのフレームワークである。
ハードウェアアクセラレータ(GPUなど)上でMLトレーニングを実行し、セキュリティ保証を提供する。
CIFAR-10と現実世界の医療データセットのMLトレーニング中に、Perunは161倍から1560倍のスピードアップを達成した。
- 参考スコア(独自算出の注目度): 1.5362025549031049
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Confidential multi-stakeholder machine learning (ML) allows multiple parties
to perform collaborative data analytics while not revealing their intellectual
property, such as ML source code, model, or datasets. State-of-the-art
solutions based on homomorphic encryption incur a large performance overhead.
Hardware-based solutions, such as trusted execution environments (TEEs),
significantly improve the performance in inference computations but still
suffer from low performance in training computations, e.g., deep neural
networks model training, because of limited availability of protected memory
and lack of GPU support.
To address this problem, we designed and implemented Perun, a framework for
confidential multi-stakeholder machine learning that allows users to make a
trade-off between security and performance. Perun executes ML training on
hardware accelerators (e.g., GPU) while providing security guarantees using
trusted computing technologies, such as trusted platform module and integrity
measurement architecture. Less compute-intensive workloads, such as inference,
execute only inside TEE, thus at a lower trusted computing base. The evaluation
shows that during the ML training on CIFAR-10 and real-world medical datasets,
Perun achieved a 161x to 1560x speedup compared to a pure TEE-based approach.
- Abstract(参考訳): ML(Confidential Multi-Stakeer Machine Learning)は、複数のパーティが、MLソースコードやモデル、データセットなどの知的プロパティを公開せずに、コラボレーティブなデータ分析を行うことを可能にする。
準同型暗号化に基づく最先端のソリューションは、大きなパフォーマンスのオーバーヘッドを伴います。
ハードウェアベースのソリューション、例えばtrusted execution environment(tees)は、推論計算のパフォーマンスを大幅に向上させるが、保護されたメモリの可用性とgpuサポートの欠如により、ディープニューラルネットワークモデルのトレーニングなど、トレーニング計算のパフォーマンスは低下する。
この問題に対処するために,セキュリティとパフォーマンスのトレードオフを可能にする,秘密のマルチステークホルダ機械学習フレームワークであるPerunを設計,実装した。
perunはハードウェアアクセラレータ(gpuなど)上でmlトレーニングを実行し、trusted platform moduleやcontainity measurement architectureといった信頼できるコンピューティングテクノロジを使用したセキュリティ保証を提供する。
推論のような計算集約的なワークロードは、TEE内でのみ実行されるため、信頼性の低いコンピューティングベースで実行される。
CIFAR-10と実世界の医療データセットのMLトレーニングにおいて、Perunは純粋なTEEベースのアプローチと比較して161倍から1560倍のスピードアップを達成した。
関連論文リスト
- TensorTEE: Unifying Heterogeneous TEE Granularity for Efficient Secure Collaborative Tensor Computing [13.983627699836376]
既存の異種TEE設計は、CPUとNPU間のメモリの粒度が微妙で異なるため、協調コンピューティングでは非効率である。
安全な協調計算のための統合テンソル・グラニュラリティ異種TEEを提案する。
その結果、TEEは、既存の作業と比べて、Large Language Model(LLM)トレーニングワークロードのパフォーマンスを4.0倍改善していることがわかった。
論文 参考訳(メタデータ) (2024-07-12T00:35:18Z) - TDML -- A Trustworthy Distributed Machine Learning Framework [7.302091381583343]
大規模モデル(LM)の急速な進歩は、計算資源の需要を増大させた。
この需要は、サプライチェーンの遅延と大手テック企業による独占的な買収により、可用性の限界によって悪化している。
本稿では、リモートトレーナーのコーディネートとワークロードの検証にガイダンスを活用する、テキスト信頼に値する分散機械学習(TDML)フレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-10T03:22:28Z) - VeriSplit: Secure and Practical Offloading of Machine Learning Inferences across IoT Devices [31.247069150077632]
多くのIoT(Internet-of-Things)デバイスは、機械学習推論を実行するためにクラウド計算リソースに依存している。
これは高価で、ユーザーのプライバシーを心配する可能性がある。
ローカルで利用可能なデバイスに機械学習推論をオフロードするフレームワークであるVeriSplitを提案する。
論文 参考訳(メタデータ) (2024-06-02T01:28:38Z) - Privacy preserving layer partitioning for Deep Neural Network models [0.21470800327528838]
Trusted Execution Environments (TEEs)は、暗号化、復号化、セキュリティ、整合性チェックなどの追加レイヤによって、大幅なパフォーマンスオーバーヘッドを発生させることができる。
我々はGPUに層分割技術とオフロード計算を導入する。
我々は、訓練された条件付き生成逆数ネットワーク(c-GAN)を用いた入力再構成攻撃の防御におけるアプローチの有効性を示す実験を行った。
論文 参考訳(メタデータ) (2024-04-11T02:39:48Z) - Federated Fine-Tuning of LLMs on the Very Edge: The Good, the Bad, the Ugly [62.473245910234304]
本稿では,最新のエッジコンピューティングシステムにおいて,Large Language Modelsをどのように導入できるかを,ハードウェア中心のアプローチで検討する。
マイクロレベルのハードウェアベンチマークを行い、FLOPモデルと最先端のデータセンターGPUを比較し、現実的な条件下でのネットワーク利用について検討する。
論文 参考訳(メタデータ) (2023-10-04T20:27:20Z) - FusionAI: Decentralized Training and Deploying LLMs with Massive
Consumer-Level GPUs [57.12856172329322]
我々は、巨大な未使用のコンシューマレベルのGPUをアンロックする分散システムを構想する。
このシステムは、CPUとGPUメモリの制限、ネットワーク帯域幅の低さ、ピアとデバイスの多様性など、重要な課題に直面している。
論文 参考訳(メタデータ) (2023-09-03T13:27:56Z) - A Multi-Head Ensemble Multi-Task Learning Approach for Dynamical
Computation Offloading [62.34538208323411]
共有バックボーンと複数の予測ヘッド(PH)を組み合わせたマルチヘッドマルチタスク学習(MEMTL)手法を提案する。
MEMTLは、追加のトレーニングデータを必要とせず、推測精度と平均平方誤差の両方でベンチマーク手法より優れている。
論文 参考訳(メタデータ) (2023-09-02T11:01:16Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z) - CrypTen: Secure Multi-Party Computation Meets Machine Learning [25.21435023269728]
CrypTenは、現代の機械学習フレームワークに共通する抽象化を通じて、人気のあるセキュアなMPCプリミティブを公開するソフトウェアフレームワークである。
本稿では,CrypTenの設計とテキスト分類,音声認識,画像分類のための最先端モデルの性能評価を行う。
論文 参考訳(メタデータ) (2021-09-02T14:36:55Z) - Federated Learning with Unreliable Clients: Performance Analysis and
Mechanism Design [76.29738151117583]
Federated Learning(FL)は、分散クライアント間で効果的な機械学習モデルをトレーニングするための有望なツールとなっている。
しかし、低品質のモデルは信頼性の低いクライアントによってアグリゲータサーバにアップロードすることができ、劣化やトレーニングの崩壊につながる。
クライアントの信頼できない振る舞いをモデル化し、このようなセキュリティリスクを軽減するための防御メカニズムを提案する。
論文 参考訳(メタデータ) (2021-05-10T08:02:27Z) - A Privacy-Preserving Distributed Architecture for
Deep-Learning-as-a-Service [68.84245063902908]
本稿では,ディープラーニング・アズ・ア・サービスのための分散アーキテクチャを提案する。
クラウドベースのマシンとディープラーニングサービスを提供しながら、ユーザの機密データを保存できる。
論文 参考訳(メタデータ) (2020-03-30T15:12:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。