論文の概要: OLIVE: Oblivious and Differentially Private Federated Learning on
Trusted Execution Environment
- arxiv url: http://arxiv.org/abs/2202.07165v2
- Date: Wed, 16 Feb 2022 07:51:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-17 13:53:56.661708
- Title: OLIVE: Oblivious and Differentially Private Federated Learning on
Trusted Execution Environment
- Title(参考訳): OLIVE:信頼された実行環境におけるオープンで差別的なフェデレーション学習
- Authors: Fumiyuki Kato, Yang Cao, Masatoshi Yoshikawa
- Abstract要約: TEE(Trusted Execution Environment)を活用したCDP-FLとLDP-FLの利点を組み合わせたOLIVEを提案する。
主な技術的貢献は、OLIVEにおけるTEEの脆弱性の分析と対策です。
実世界のデータを用いた実験では、数十万のパラメータでモデルをトレーニングしてもOLIVEは効率的であることが示された。
- 参考スコア(独自算出の注目度): 22.579050671255846
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Differentially private federated learning (DP-FL) has received increasing
attention to mitigate the privacy risk in federated learning. Although
different schemes for DP-FL have been proposed, there is still a utility gap.
Employing central Differential Privacy in FL (CDP-FL) can provide a good
balance between the privacy and model utility, but requires a trusted server.
Using Local Differential Privacy for FL (LDP-FL) does not require a trusted
server, but suffers from lousy privacy-utility trade-off. Recently proposed
shuffle DP based FL has the potential to bridge the gap between CDP-FL and
LDP-FL without a trusted server; however, there is still a utility gap when the
number of model parameters is large. In this work, we propose OLIVE, a system
that combines the merits from CDP-FL and LDP-FL by leveraging Trusted Execution
Environment (TEE). Our main technical contributions are the analysis and
countermeasures against the vulnerability of TEE in OLIVE. Firstly, we
theoretically analyze the memory access pattern leakage of OLIVE and find that
there is a risk for sparsified gradients, which is common in FL. Secondly, we
design an inference attack to understand how the memory access pattern could be
linked to the training data. Thirdly, we propose oblivious yet efficient
algorithms to prevent the memory access pattern leakage in OLIVE. Our
experiments on real-world data demonstrate that OLIVE is efficient even when
training a model with hundreds of thousands of parameters and effective against
side-channel attacks on TEE.
- Abstract(参考訳): 個別連合学習(dp-fl)は,連合学習におけるプライバシリスクの軽減に注目が集まっている。
DP-FLの異なるスキームが提案されているが、まだ実用的ギャップがある。
FL(CDP-FL)に中心的な微分プライバシーを採用することで、プライバシとモデルユーティリティのバランスが良くなりますが、信頼できるサーバが必要です。
LDP-FL(Local Differential Privacy for FL)を使用する場合、信頼できるサーバは必要ありません。
最近提案されたシャッフルDPベースのFLは、信頼できるサーバを使わずに、CDP-FLとLCP-FLのギャップを埋める可能性を持っているが、モデルパラメータの数が大きくなると、実用上のギャップがある。
本稿では,信頼された実行環境(TEE)を活用することで,CDP-FLとLDP-FLのメリットを組み合わせたOLIVEを提案する。
主な技術的貢献は、OLIVEにおけるTEEの脆弱性の分析と対策です。
まず,オリーブのメモリアクセスパターンの漏洩を理論的に解析し,flに共通するスパース化勾配のリスクがあることを見出した。
次に,メモリアクセスパターンとトレーニングデータとの関係を理解するために,推論攻撃を設計する。
第3に,OLIVEにおけるメモリアクセスパターンのリークを防止するアルゴリズムを提案する。
実世界のデータを用いた実験により,数十万のパラメータを持つモデルのトレーニングを行う場合においてもOLIVEは効率的であり,TEEに対するサイドチャネル攻撃に対して有効であることが示された。
関連論文リスト
- Gradients Stand-in for Defending Deep Leakage in Federated Learning [0.0]
本研究は, AdaDefense という勾配漏洩防止を目的とした, 効率的かつ効率的な手法を提案する。
提案手法は, 勾配リークを効果的に防止するだけでなく, モデル全体の性能に大きな影響を与えないことを保証する。
論文 参考訳(メタデータ) (2024-10-11T11:44:13Z) - Privacy-Preserving Distributed Learning for Residential Short-Term Load
Forecasting [11.185176107646956]
電力システムの負荷データは、住宅ユーザの日常のルーチンを不注意に明らかにし、彼らの財産のセキュリティにリスクを及ぼす可能性がある。
我々はマルコフスイッチ方式の分散学習フレームワークを導入し、その収束は厳密な理論的解析によって実証される。
実世界の電力系統負荷データを用いたケーススタディにより,提案アルゴリズムの有効性を検証した。
論文 参考訳(メタデータ) (2024-02-02T16:39:08Z) - Privacy-preserving Federated Primal-dual Learning for Non-convex and Non-smooth Problems with Model Sparsification [51.04894019092156]
FL(Federated Learning)は,FLオーケストレーション(PS)の下でクライアント上でモデルをトレーニングする,急速に成長する領域として認識されている。
本稿では,非滑らかなFL問題に対して,新しい一次分離アルゴリズムを提案し,保証する。
その独特な洞察力のある性質とその分析も提示される。
論文 参考訳(メタデータ) (2023-10-30T14:15:47Z) - Enabling Quartile-based Estimated-Mean Gradient Aggregation As Baseline
for Federated Image Classifications [5.5099914877576985]
Federated Learning(FL)は、機密データを保護し、モデルパフォーマンスを改善しながら、分散コラボレーションを可能にすることによって、ディープニューラルネットワークのトレーニング方法に革命をもたらした。
本稿では,これらの課題に対処するだけでなく,FLシステムにおける高度な集約技術に対して$mathsfbaseline$として基本的な参照ポイントを提供する,Estimated Mean Aggregation (EMA) という革新的なソリューションを紹介する。
論文 参考訳(メタデータ) (2023-09-21T17:17:28Z) - A Safe Genetic Algorithm Approach for Energy Efficient Federated
Learning in Wireless Communication Networks [53.561797148529664]
フェデレートラーニング(FL)は、従来の集中型アプローチとは対照的に、デバイスが協調的にモデルトレーニングを行う分散技術として登場した。
FLの既存の取り組みにもかかわらず、その環境影響は、無線ネットワークへの適用性に関するいくつかの重要な課題が特定されているため、まだ調査中である。
現在の研究は遺伝的アルゴリズム(GA)アプローチを提案しており、FLプロセス全体のエネルギー消費と不要な資源利用の両方を最小化することを目標としている。
論文 参考訳(メタデータ) (2023-06-25T13:10:38Z) - WW-FL: Secure and Private Large-Scale Federated Learning [15.412475066687723]
Federated Learning(FL)は、クライアントデバイス上でトレーニングデータを保持することによって、データのプライバシを保証する、大規模分散機械学習の効率的なアプローチである。
最近の研究でFLの脆弱性が発見され、毒殺攻撃によってセキュリティとプライバシーの両方に影響を及ぼした。
データとグローバルモデルのプライバシを保証するために,セキュアなマルチパーティ計算と階層的なFLを組み合わせた,革新的なフレームワークであるWW-FLを提案する。
論文 参考訳(メタデータ) (2023-02-20T11:02:55Z) - Reliable Federated Disentangling Network for Non-IID Domain Feature [62.73267904147804]
本稿では、RFedDisと呼ばれる新しい信頼性のあるフェデレーション・ディエンタングリング・ネットワークを提案する。
我々の知る限り、提案するRFedDisは、明らかな不確実性と特徴の混在に基づくFLアプローチを開発する最初の試みである。
提案するRFedDisは,他の最先端FL手法と比較して信頼性の高い優れた性能を提供する。
論文 参考訳(メタデータ) (2023-01-30T11:46:34Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - Federated Robustness Propagation: Sharing Adversarial Robustness in
Federated Learning [98.05061014090913]
フェデレートラーニング(FL)は、生データを共有することなく、参加するユーザのセットから学習する、人気のある分散ラーニングスキーマとして登場した。
敵対的トレーニング(AT)は集中学習のための健全なソリューションを提供する。
既存のFL技術では,非IDユーザ間の対向的ロバスト性を効果的に広めることができないことを示す。
本稿では, バッチ正規化統計量を用いてロバスト性を伝達する, 単純かつ効果的な伝搬法を提案する。
論文 参考訳(メタデータ) (2021-06-18T15:52:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。