論文の概要: A performance analysis of VM-based Trusted Execution Environments for Confidential Federated Learning
- arxiv url: http://arxiv.org/abs/2501.11558v1
- Date: Mon, 20 Jan 2025 15:58:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-22 19:37:19.448865
- Title: A performance analysis of VM-based Trusted Execution Environments for Confidential Federated Learning
- Title(参考訳): 信頼関係学習のためのVMベースの信頼実行環境の性能解析
- Authors: Bruno Casella,
- Abstract要約: Federated Learning(FL)は、最近のプライバシー問題に対処する効果的な方法として登場した分散機械学習アプローチである。
FLだけではモデルやデータ中毒、推論攻撃といった脆弱性に悩まされているため、FLは追加のセキュリティ対策の必要性を導入している。
CC(Confidential Computing)は、ハードウェアベースの信頼できる実行環境(TEE)を活用することで、MLモデルとデータの機密性と整合性を保護するパラダイムである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning (FL) is a distributed machine learning approach that has emerged as an effective way to address recent privacy concerns. However, FL introduces the need for additional security measures as FL alone is still subject to vulnerabilities such as model and data poisoning and inference attacks. Confidential Computing (CC) is a paradigm that, by leveraging hardware-based trusted execution environments (TEEs), protects the confidentiality and integrity of ML models and data, thus resulting in a powerful ally of FL applications. Typical TEEs offer an application-isolation level but suffer many drawbacks, such as limited available memory and debugging and coding difficulties. The new generation of TEEs offers a virtual machine (VM)-based isolation level, thus reducing the porting effort for existing applications. In this work, we compare the performance of VM-based and application-isolation level TEEs for confidential FL (CFL) applications. In particular, we evaluate the impact of TEEs and additional security mechanisms such as TLS (for securing the communication channel). The results, obtained across three datasets and two deep learning models, demonstrate that the new VM-based TEEs introduce a limited overhead (at most 1.5x), thus paving the way to leverage public and untrusted computing environments, such as HPC facilities or public cloud, without detriment to performance.
- Abstract(参考訳): Federated Learning(FL)は、最近のプライバシー問題に対処する効果的な方法として登場した分散機械学習アプローチである。
しかし、FLだけではモデルやデータ中毒、推論攻撃といった脆弱性に悩まされているため、FLは追加のセキュリティ対策の必要性を導入している。
CC(Confidential Computing)は、ハードウェアベースの信頼できる実行環境(TEE)を活用することで、MLモデルとデータの機密性と整合性を保護し、FLアプリケーションの強力な同盟関係をもたらすパラダイムである。
典型的なTEEは、アプリケーションアイソレーションレベルを提供するが、利用可能なメモリやデバッグ、コーディングの困難など、多くの欠点がある。
新しい世代のTEEは仮想マシン(VM)ベースのアイソレーションレベルを提供し、既存のアプリケーションへの移植の労力を減らす。
本研究では,機密FL(CFL)アプリケーションにおけるVMベースおよびアプリケーションアイソレーションレベルTEEの性能を比較した。
特に,TEEとTLS(通信チャネルの確保)のような追加のセキュリティメカニズムの影響を評価した。
3つのデータセットと2つのディープラーニングモデルで得られた結果は、新しいVMベースのTEEが限られたオーバーヘッド(最大1.5倍)を導入し、パフォーマンスを損なうことなく、HPC設備やパブリッククラウドといった、パブリックおよび信頼できないコンピューティング環境を活用する方法が確立されたことを示している。
関連論文リスト
- R-TPT: Improving Adversarial Robustness of Vision-Language Models through Test-Time Prompt Tuning [97.49610356913874]
視覚言語モデル(VLM)のためのロバストテスト時プロンプトチューニング(R-TPT)を提案する。
R-TPTは、推論段階における敵攻撃の影響を緩和する。
プラグアンドプレイの信頼性に基づく重み付きアンサンブル戦略を導入し,防御強化を図る。
論文 参考訳(メタデータ) (2025-04-15T13:49:31Z) - OFL: Opportunistic Federated Learning for Resource-Heterogeneous and Privacy-Aware Devices [8.037795580924163]
Opportunistic Federated Learning (OFL)は、リソースヘテロジニアスでプライバシを意識したFLデバイス用に明示的に設計された新しいFLフレームワークである。
OFLは、差分的にプライベートでオポチュニティなモデル更新機構を導入することで、強力なセキュリティを提供する。
OFLはモデル性能を満足し、効率とセキュリティを改善し、既存のソリューションより優れている。
論文 参考訳(メタデータ) (2025-03-19T09:12:47Z) - Forgetting Any Data at Any Time: A Theoretically Certified Unlearning Framework for Vertical Federated Learning [8.127710748771992]
理論的に保証された未学習機能を備えた最初のVFLフレームワークを紹介する。
従来のアプローチとは異なり、私たちのソリューションはモデルとデータに依存しず、普遍的な互換性を提供します。
私たちのフレームワークは非同期のアンラーニングをサポートします。
論文 参考訳(メタデータ) (2025-02-24T11:52:35Z) - Digital Twin-Assisted Federated Learning with Blockchain in Multi-tier Computing Systems [67.14406100332671]
産業用 4.0 システムでは、リソース制約のあるエッジデバイスが頻繁にデータ通信を行う。
本稿では,デジタルツイン (DT) とフェデレーション付きデジタルツイン (FL) 方式を提案する。
提案手法の有効性を数値解析により検証した。
論文 参考訳(メタデータ) (2024-11-04T17:48:02Z) - Effective Intrusion Detection in Heterogeneous Internet-of-Things Networks via Ensemble Knowledge Distillation-based Federated Learning [52.6706505729803]
我々は、分散化された侵入検知システムの共有モデル(IDS)を協調訓練するために、フェデレートラーニング(FL)を導入する。
FLEKDは従来のモデル融合法よりも柔軟な凝集法を実現する。
実験の結果,提案手法は,速度と性能の両面で,局所訓練と従来のFLよりも優れていた。
論文 参考訳(メタデータ) (2024-01-22T14:16:37Z) - HasTEE+ : Confidential Cloud Computing and Analytics with Haskell [50.994023665559496]
信頼性コンピューティングは、Trusted Execution Environments(TEEs)と呼ばれる特別なハードウェア隔離ユニットを使用して、コテナントクラウドデプロイメントにおける機密コードとデータの保護を可能にする。
低レベルのC/C++ベースのツールチェーンを提供するTEEは、固有のメモリ安全性の脆弱性の影響を受けやすく、明示的で暗黙的な情報フローのリークを監視するための言語構造が欠如している。
私たちは、Haskellに埋め込まれたドメイン固有言語(cla)であるHasTEE+を使って、上記の問題に対処します。
論文 参考訳(メタデータ) (2024-01-17T00:56:23Z) - Federated Learning: A Cutting-Edge Survey of the Latest Advancements and Applications [6.042202852003457]
Federated Learning(FL)は、堅牢な機械学習(ML)モデルを開発するためのテクニックである。
ユーザのプライバシを保護するため、FLでは、大量の生データや潜在的機密データを送信するのではなく、モデル更新を送信する必要がある。
このサーベイは、最新のFLアルゴリズムの包括的な分析と比較を提供する。
論文 参考訳(メタデータ) (2023-10-08T19:54:26Z) - Federated Fine-Tuning of LLMs on the Very Edge: The Good, the Bad, the Ugly [62.473245910234304]
本稿では,最新のエッジコンピューティングシステムにおいて,Large Language Modelsをどのように導入できるかを,ハードウェア中心のアプローチで検討する。
マイクロレベルのハードウェアベンチマークを行い、FLOPモデルと最先端のデータセンターGPUを比較し、現実的な条件下でのネットワーク利用について検討する。
論文 参考訳(メタデータ) (2023-10-04T20:27:20Z) - FLEdge: Benchmarking Federated Machine Learning Applications in Edge Computing Systems [61.335229621081346]
フェデレートラーニング(FL)は,ネットワークエッジ上での分散ディープラーニングのプライバシ強化を実現する上で,有効なテクニックとなっている。
本稿では,既存のFLベンチマークを補完するFLEdgeを提案する。
論文 参考訳(メタデータ) (2023-06-08T13:11:20Z) - Shielding Federated Learning Systems against Inference Attacks with ARM
TrustZone [0.0]
フェデレートラーニング(FL)は、マシンラーニングモデルをトレーニングする上で、個人データをユーザ環境に保持する新たな視点を開放する。
近年、個人データを勾配から流出させる推論攻撃の長いリストは、効果的な保護メカニズムの考案の必要性を強調している。
GradSecは、機械学習モデルのTEEのみに敏感なレイヤを保護できるソリューションです。
論文 参考訳(メタデータ) (2022-08-11T15:53:07Z) - OLIVE: Oblivious Federated Learning on Trusted Execution Environment
against the risk of sparsification [22.579050671255846]
本研究は,フェデレートラーニングと防衛におけるサーバサイドTEEの脆弱性の分析に焦点をあてる。
まず,メモリアクセスパターンの漏洩を理論的に解析し,スペーサー化勾配のリスクを明らかにする。
第2に、トレーニングデータセット内の機密情報にメモリアクセスパターンをリンクする推論攻撃を考案する。
論文 参考訳(メタデータ) (2022-02-15T03:23:57Z) - Perun: Secure Multi-Stakeholder Machine Learning Framework with GPU
Support [1.5362025549031049]
Perunは機密のマルチステークホルダ機械学習のためのフレームワークである。
ハードウェアアクセラレータ(GPUなど)上でMLトレーニングを実行し、セキュリティ保証を提供する。
CIFAR-10と現実世界の医療データセットのMLトレーニング中に、Perunは161倍から1560倍のスピードアップを達成した。
論文 参考訳(メタデータ) (2021-03-31T08:31:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。