論文の概要: Understanding the Interplay between Privacy and Robustness in Federated
Learning
- arxiv url: http://arxiv.org/abs/2106.07033v1
- Date: Sun, 13 Jun 2021 16:01:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-15 15:36:21.480992
- Title: Understanding the Interplay between Privacy and Robustness in Federated
Learning
- Title(参考訳): 連合学習におけるプライバシとロバストネスの相互作用の理解
- Authors: Yaowei Han, Yang Cao, Masatoshi Yoshikawa
- Abstract要約: フェデレートラーニング(FL)は、プライバシー保護機械学習の有望なパラダイムとして浮上している。
最近の作業では、FLのいくつかのプライバシとロバストネスの弱点が強調されている。
LDPがFLの敵対的堅牢性にどのように影響するかは、まだ不明である。
- 参考スコア(独自算出の注目度): 15.673448030003788
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) is emerging as a promising paradigm of
privacy-preserving machine learning, which trains an algorithm across multiple
clients without exchanging their data samples. Recent works highlighted several
privacy and robustness weaknesses in FL and addressed these concerns using
local differential privacy (LDP) and some well-studied methods used in
conventional ML, separately. However, it is still not clear how LDP affects
adversarial robustness in FL. To fill this gap, this work attempts to develop a
comprehensive understanding of the effects of LDP on adversarial robustness in
FL. Clarifying the interplay is significant since this is the first step
towards a principled design of private and robust FL systems. We certify that
local differential privacy has both positive and negative effects on
adversarial robustness using theoretical analysis and empirical verification.
- Abstract(参考訳): フェデレートラーニング(FL)は、データサンプルを交換することなく、複数のクライアント間でアルゴリズムをトレーニングする、プライバシー保護機械学習の有望なパラダイムとして浮上している。
最近の研究は、FLにおけるいくつかのプライバシーと堅牢性の弱点を強調し、これらの懸念に、ローカルディファレンシャルプライバシ(LDP)と、従来のMLでよく研究された方法を用いて対処している。
しかし, LDPがFLの対向的堅牢性にどのような影響を及ぼすかは明らかになっていない。
このギャップを埋めるために、この研究はFLの対角的堅牢性に対するLDPの影響を包括的に理解しようと試みる。
プライベートでロバストなflシステムの原則設計への第一歩となるため、相互作用の明確化は重要である。
局所的微分プライバシーは, 理論的解析と実証的検証を用いて, 対向的ロバスト性に正と負の両方の影響があることを確認した。
関連論文リスト
- Privacy-preserving Federated Primal-dual Learning for Non-convex and
Non-smooth Problems with Model Sparsification [54.767648945613004]
フェデレートラーニング(FL)は急速に成長している分野として認識されている。
パラメータの非平滑性と非共有性は、FLアプリケーションで一般的である。
論文 参考訳(メタデータ) (2023-10-30T14:15:47Z) - Balancing Privacy Protection and Interpretability in Federated Learning [8.759803233734624]
フェデレートラーニング(FL)は、ローカルクライアントから中央サーバにモデルパラメータを共有することで、グローバルモデルを分散的にトレーニングすることを目的としている。
近年の研究では、FLは情報漏洩に悩まされており、敵はローカルクライアントから共有パラメータを解析してトレーニングデータを回復しようとする。
本稿では,FLにおけるクライアントモデルの勾配に雑音を選択的に追加する,単純かつ効果的な適応型微分プライバシー(ADP)機構を提案する。
論文 参考訳(メタデータ) (2023-02-16T02:58:22Z) - Federated Learning with Privacy-Preserving Ensemble Attention
Distillation [63.39442596910485]
Federated Learning(FL)は、多くのローカルノードがトレーニングデータを分散化しながら、中央モデルを協調的にトレーニングする機械学習パラダイムである。
本稿では,未ラベル公開データを利用した一方向オフライン知識蒸留のためのプライバシー保護FLフレームワークを提案する。
我々の技術は、既存のFLアプローチのような分散的で異質なローカルデータを使用するが、より重要なのは、プライバシー漏洩のリスクを著しく低減することです。
論文 参考訳(メタデータ) (2022-10-16T06:44:46Z) - Unraveling the Connections between Privacy and Certified Robustness in
Federated Learning Against Poisoning Attacks [68.20436971825941]
フェデレートラーニング(FL)は、分散ユーザのデータを活用するグローバルモデルを共同でトレーニングするための、効率的なパラダイムを提供する。
いくつかの研究により、FLは毒殺攻撃に弱いことが示されている。
ローカルユーザのプライバシを保護するため、FLは通常、差分プライベートな方法でトレーニングされる。
論文 参考訳(メタデータ) (2022-09-08T21:01:42Z) - On Privacy and Personalization in Cross-Silo Federated Learning [39.031422430404405]
本研究では,クロスサイロ学習(FL)における差分プライバシーの適用について考察する。
平均正規化マルチタスク学習(MR-MTL)がクロスサイロFLの強力なベースラインであることを示す。
平均推定問題に対するMR-MTLの理論的評価とともに,競合する手法の徹底的な実証研究を行った。
論文 参考訳(メタデータ) (2022-06-16T03:26:48Z) - OLIVE: Oblivious Federated Learning on Trusted Execution Environment
against the risk of sparsification [22.579050671255846]
本研究は,フェデレートラーニングと防衛におけるサーバサイドTEEの脆弱性の分析に焦点をあてる。
まず,メモリアクセスパターンの漏洩を理論的に解析し,スペーサー化勾配のリスクを明らかにする。
第2に、トレーニングデータセット内の機密情報にメモリアクセスパターンをリンクする推論攻撃を考案する。
論文 参考訳(メタデータ) (2022-02-15T03:23:57Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - Understanding Clipping for Federated Learning: Convergence and
Client-Level Differential Privacy [67.4471689755097]
本稿では, 切断したFedAvgが, 実質的なデータ均一性でも驚くほど良好に動作できることを実証的に示す。
本稿では,差分プライベート(DP)FedAvgアルゴリズムの収束解析を行い,クリッピングバイアスとクライアント更新の分布との関係を明らかにする。
論文 参考訳(メタデータ) (2021-06-25T14:47:19Z) - Local and Central Differential Privacy for Robustness and Privacy in
Federated Learning [13.115388879531967]
フェデレートラーニング(FL)では、モデルの更新のみを交換しながらデータセットをローカルに保つことで、複数の参加者が機械学習モデルを協調的にトレーニングすることができる。
本稿では,FLにおけるプライバシーとロバスト性の両方を保護するために差分プライバシ(DP)をどの程度利用できるかについて検討する。
論文 参考訳(メタデータ) (2020-09-08T07:37:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。