論文の概要: A performance analysis of VM-based Trusted Execution Environments for Confidential Federated Learning
- arxiv url: http://arxiv.org/abs/2501.11558v1
- Date: Mon, 20 Jan 2025 15:58:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-22 14:19:10.856206
- Title: A performance analysis of VM-based Trusted Execution Environments for Confidential Federated Learning
- Title(参考訳): 信頼関係学習のためのVMベースの信頼実行環境の性能解析
- Authors: Bruno Casella,
- Abstract要約: Federated Learning(FL)は、最近のプライバシー問題に対処する効果的な方法として登場した分散機械学習アプローチである。
FLだけではモデルやデータ中毒、推論攻撃といった脆弱性に悩まされているため、FLは追加のセキュリティ対策の必要性を導入している。
CC(Confidential Computing)は、ハードウェアベースの信頼できる実行環境(TEE)を活用することで、MLモデルとデータの機密性と整合性を保護するパラダイムである。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Federated Learning (FL) is a distributed machine learning approach that has emerged as an effective way to address recent privacy concerns. However, FL introduces the need for additional security measures as FL alone is still subject to vulnerabilities such as model and data poisoning and inference attacks. Confidential Computing (CC) is a paradigm that, by leveraging hardware-based trusted execution environments (TEEs), protects the confidentiality and integrity of ML models and data, thus resulting in a powerful ally of FL applications. Typical TEEs offer an application-isolation level but suffer many drawbacks, such as limited available memory and debugging and coding difficulties. The new generation of TEEs offers a virtual machine (VM)-based isolation level, thus reducing the porting effort for existing applications. In this work, we compare the performance of VM-based and application-isolation level TEEs for confidential FL (CFL) applications. In particular, we evaluate the impact of TEEs and additional security mechanisms such as TLS (for securing the communication channel). The results, obtained across three datasets and two deep learning models, demonstrate that the new VM-based TEEs introduce a limited overhead (at most 1.5x), thus paving the way to leverage public and untrusted computing environments, such as HPC facilities or public cloud, without detriment to performance.
- Abstract(参考訳): Federated Learning(FL)は、最近のプライバシー問題に対処する効果的な方法として登場した分散機械学習アプローチである。
しかし、FLだけではモデルやデータ中毒、推論攻撃といった脆弱性に悩まされているため、FLは追加のセキュリティ対策の必要性を導入している。
CC(Confidential Computing)は、ハードウェアベースの信頼できる実行環境(TEE)を活用することで、MLモデルとデータの機密性と整合性を保護し、FLアプリケーションの強力な同盟関係をもたらすパラダイムである。
典型的なTEEは、アプリケーションアイソレーションレベルを提供するが、利用可能なメモリやデバッグ、コーディングの困難など、多くの欠点がある。
新しい世代のTEEは仮想マシン(VM)ベースのアイソレーションレベルを提供し、既存のアプリケーションへの移植の労力を減らす。
本研究では,機密FL(CFL)アプリケーションにおけるVMベースおよびアプリケーションアイソレーションレベルTEEの性能を比較した。
特に,TEEとTLS(通信チャネルの確保)のような追加のセキュリティメカニズムの影響を評価した。
3つのデータセットと2つのディープラーニングモデルで得られた結果は、新しいVMベースのTEEが限られたオーバーヘッド(最大1.5倍)を導入し、パフォーマンスを損なうことなく、HPC設備やパブリッククラウドといった、パブリックおよび信頼できないコンピューティング環境を活用する方法が確立されたことを示している。
関連論文リスト
- Digital Twin-Assisted Federated Learning with Blockchain in Multi-tier Computing Systems [67.14406100332671]
産業用 4.0 システムでは、リソース制約のあるエッジデバイスが頻繁にデータ通信を行う。
本稿では,デジタルツイン (DT) とフェデレーション付きデジタルツイン (FL) 方式を提案する。
提案手法の有効性を数値解析により検証した。
論文 参考訳(メタデータ) (2024-11-04T17:48:02Z) - Advances in APPFL: A Comprehensive and Extensible Federated Learning Framework [1.4206132527980742]
Federated Learning(FL)は、データプライバシを保持しながら協調的なモデルトレーニングを可能にする分散機械学習パラダイムである。
本稿では,統合学習のためのフレームワークおよびベンチマークスイートであるAPPFLの開発における最近の進歩について述べる。
本稿では, 通信効率, プライバシー保護, 計算性能, 資源利用など, FLの様々な側面を評価する広範な実験を通じて, APPFLの能力を実証する。
論文 参考訳(メタデータ) (2024-09-17T22:20:26Z) - Effective Intrusion Detection in Heterogeneous Internet-of-Things Networks via Ensemble Knowledge Distillation-based Federated Learning [52.6706505729803]
我々は、分散化された侵入検知システムの共有モデル(IDS)を協調訓練するために、フェデレートラーニング(FL)を導入する。
FLEKDは従来のモデル融合法よりも柔軟な凝集法を実現する。
実験の結果,提案手法は,速度と性能の両面で,局所訓練と従来のFLよりも優れていた。
論文 参考訳(メタデータ) (2024-01-22T14:16:37Z) - HasTEE+ : Confidential Cloud Computing and Analytics with Haskell [50.994023665559496]
信頼性コンピューティングは、Trusted Execution Environments(TEEs)と呼ばれる特別なハードウェア隔離ユニットを使用して、コテナントクラウドデプロイメントにおける機密コードとデータの保護を可能にする。
低レベルのC/C++ベースのツールチェーンを提供するTEEは、固有のメモリ安全性の脆弱性の影響を受けやすく、明示的で暗黙的な情報フローのリークを監視するための言語構造が欠如している。
私たちは、Haskellに埋め込まれたドメイン固有言語(cla)であるHasTEE+を使って、上記の問題に対処します。
論文 参考訳(メタデータ) (2024-01-17T00:56:23Z) - Secure Instruction and Data-Level Information Flow Tracking Model for RISC-V [0.0]
不正アクセス、障害注入、およびプライバシー侵害は、信頼できないアクターによる潜在的な脅威である。
本稿では,実行時セキュリティがシステム完全性を保護するために,IFT(Information Flow Tracking)技術を提案する。
本研究では,ハードウェアベース IFT 技術とゲートレベル IFT (GLIFT) 技術を統合したマルチレベル IFT モデルを提案する。
論文 参考訳(メタデータ) (2023-11-17T02:04:07Z) - Federated Fine-Tuning of LLMs on the Very Edge: The Good, the Bad, the Ugly [62.473245910234304]
本稿では,最新のエッジコンピューティングシステムにおいて,Large Language Modelsをどのように導入できるかを,ハードウェア中心のアプローチで検討する。
マイクロレベルのハードウェアベンチマークを行い、FLOPモデルと最先端のデータセンターGPUを比較し、現実的な条件下でのネットワーク利用について検討する。
論文 参考訳(メタデータ) (2023-10-04T20:27:20Z) - FLEdge: Benchmarking Federated Machine Learning Applications in Edge Computing Systems [61.335229621081346]
フェデレートラーニング(FL)は,ネットワークエッジ上での分散ディープラーニングのプライバシ強化を実現する上で,有効なテクニックとなっている。
本稿では,既存のFLベンチマークを補完するFLEdgeを提案する。
論文 参考訳(メタデータ) (2023-06-08T13:11:20Z) - Shielding Federated Learning Systems against Inference Attacks with ARM
TrustZone [0.0]
フェデレートラーニング(FL)は、マシンラーニングモデルをトレーニングする上で、個人データをユーザ環境に保持する新たな視点を開放する。
近年、個人データを勾配から流出させる推論攻撃の長いリストは、効果的な保護メカニズムの考案の必要性を強調している。
GradSecは、機械学習モデルのTEEのみに敏感なレイヤを保護できるソリューションです。
論文 参考訳(メタデータ) (2022-08-11T15:53:07Z) - Desirable Companion for Vertical Federated Learning: New Zeroth-Order
Gradient Based Algorithm [140.25480610981504]
VFLアルゴリズムを評価するための指標の完全なリストには、モデル適用性、プライバシ、通信、計算効率が含まれるべきである。
ブラックボックスのスケーラビリティを備えた新しいVFLフレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-19T13:55:47Z) - OLIVE: Oblivious Federated Learning on Trusted Execution Environment
against the risk of sparsification [22.579050671255846]
本研究は,フェデレートラーニングと防衛におけるサーバサイドTEEの脆弱性の分析に焦点をあてる。
まず,メモリアクセスパターンの漏洩を理論的に解析し,スペーサー化勾配のリスクを明らかにする。
第2に、トレーニングデータセット内の機密情報にメモリアクセスパターンをリンクする推論攻撃を考案する。
論文 参考訳(メタデータ) (2022-02-15T03:23:57Z) - Perun: Secure Multi-Stakeholder Machine Learning Framework with GPU
Support [1.5362025549031049]
Perunは機密のマルチステークホルダ機械学習のためのフレームワークである。
ハードウェアアクセラレータ(GPUなど)上でMLトレーニングを実行し、セキュリティ保証を提供する。
CIFAR-10と現実世界の医療データセットのMLトレーニング中に、Perunは161倍から1560倍のスピードアップを達成した。
論文 参考訳(メタデータ) (2021-03-31T08:31:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。