論文の概要: Reconstructing Individual Data Points in Federated Learning Hardened
with Differential Privacy and Secure Aggregation
- arxiv url: http://arxiv.org/abs/2301.04017v2
- Date: Wed, 12 Apr 2023 21:21:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-14 20:24:58.838627
- Title: Reconstructing Individual Data Points in Federated Learning Hardened
with Differential Privacy and Secure Aggregation
- Title(参考訳): 差分プライバシとセキュアアグリゲーションを併用したフェデレーション学習における個々のデータポイントの再構築
- Authors: Franziska Boenisch, Adam Dziedzic, Roei Schuster, Ali Shahin
Shamsabadi, Ilia Shumailov, Nicolas Papernot
- Abstract要約: Federated Learning(FL)は、機械学習モデルを共同でトレーニングするためのフレームワークである。
分散微分プライバシー(DDP)とセキュアアグリゲーション(SA)で保護されたFLに対する攻撃を提案する。
- 参考スコア(独自算出の注目度): 36.95590214441999
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) is a framework for users to jointly train a machine
learning model. FL is promoted as a privacy-enhancing technology (PET) that
provides data minimization: data never "leaves" personal devices and users
share only model updates with a server (e.g., a company) coordinating the
distributed training. While prior work showed that in vanilla FL a malicious
server can extract users' private data from the model updates, in this work we
take it further and demonstrate that a malicious server can reconstruct user
data even in hardened versions of the protocol. More precisely, we propose an
attack against FL protected with distributed differential privacy (DDP) and
secure aggregation (SA). Our attack method is based on the introduction of
sybil devices that deviate from the protocol to expose individual users' data
for reconstruction by the server. The underlying root cause for the
vulnerability to our attack is a power imbalance: the server orchestrates the
whole protocol and users are given little guarantees about the selection of
other users participating in the protocol. Moving forward, we discuss
requirements for privacy guarantees in FL. We conclude that users should only
participate in the protocol when they trust the server or they apply local
primitives such as local DP, shifting power away from the server. Yet, the
latter approaches come at significant overhead in terms of performance
degradation of the trained model, making them less likely to be deployed in
practice.
- Abstract(参考訳): Federated Learning(FL)は、機械学習モデルを共同でトレーニングするためのフレームワークである。
FLは、データの最小化を提供するプライバシー強化技術(PET)として推進されている: データは、パーソナルデバイスを決して“解放”せず、ユーザは、分散トレーニングをコーディネートするサーバ(例えば、会社)とのみモデル更新を共有する。
以前の研究では、悪意のあるサーバがモデルの更新からユーザのプライベートデータを抽出できることが示されているが、本研究では、悪意のあるサーバがプロトコルの強化バージョンでもユーザデータを再構築できることをさらに示している。
より正確には、分散微分プライバシー(DDP)とセキュアアグリゲーション(SA)で保護されたFLに対する攻撃を提案する。
攻撃方法は,プロトコルから逸脱して個々のユーザのデータをサーバによる再構築のために公開するsybilデバイスの導入に基づく。
サーバがプロトコル全体を編成し、ユーザはプロトコルに参加する他のユーザの選択についてほとんど保証を与えられません。
今後、FLにおけるプライバシー保証の要件について論じる。
我々は,サーバを信頼するか,ローカルDPなどのローカルプリミティブを適用してサーバからパワーを逸脱させる場合にのみ,ユーザはプロトコルに参加するべきであると結論付けた。
しかし、後者のアプローチは、トレーニングされたモデルのパフォーマンス低下の観点から大きなオーバーヘッドを負い、実際にデプロイされる可能性が低くなる。
関連論文リスト
- Robust Federated Learning Mitigates Client-side Training Data Distribution Inference Attacks [48.70867241987739]
InferGuardは、クライアント側のトレーニングデータ分散推論攻撃に対する防御を目的とした、新しいビザンチン・ロバスト集約ルールである。
実験の結果,我々の防衛機構はクライアント側のトレーニングデータ分布推定攻撃に対する防御に極めて有効であることが示唆された。
論文 参考訳(メタデータ) (2024-03-05T17:41:35Z) - Blockchain-enabled Trustworthy Federated Unlearning [50.01101423318312]
フェデレートアンラーニング(Federated Unlearning)は、分散クライアントのデータオーナシップを保護するための、有望なパラダイムである。
既存の作業では、分散クライアントからの履歴モデルパラメータを保持するために、中央サーバが必要である。
本稿では,ブロックチェーンによる信頼性の高いフェデレーションアンラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-29T07:04:48Z) - SaFL: Sybil-aware Federated Learning with Application to Face
Recognition [13.914187113334222]
Federated Learning(FL)は、顧客間で共同学習を行う機械学習パラダイムである。
マイナス面として、FLは研究を開始したばかりのセキュリティとプライバシに関する懸念を提起している。
本稿では,SAFL と呼ばれる FL の毒殺攻撃に対する新しい防御法を提案する。
論文 参考訳(メタデータ) (2023-11-07T21:06:06Z) - Robust and Actively Secure Serverless Collaborative Learning [48.01929996757643]
コラボレーティブ機械学習(ML)は、分散データからより良いモデルを学ぶために広く利用されている。
学習のための協調的なアプローチは、直感的にユーザデータを保護しますが、サーバ、クライアント、あるいはその両方に対して脆弱なままです。
本稿では、悪意のあるサーバに対してセキュアで、悪意のあるクライアントに対して堅牢なピアツーピア学習方式を提案する。
論文 参考訳(メタデータ) (2023-10-25T14:43:03Z) - FedDefender: Client-Side Attack-Tolerant Federated Learning [60.576073964874]
フェデレーション学習は、プライバシを損なうことなく、分散化されたデータソースからの学習を可能にする。
悪意のあるクライアントがトレーニングプロセスに干渉する、毒殺攻撃のモデル化には脆弱である。
我々はFedDefenderと呼ばれるクライアントサイドに焦点を当てた新しい防御機構を提案し、クライアントの堅牢なローカルモデルのトレーニングを支援する。
論文 参考訳(メタデータ) (2023-07-18T08:00:41Z) - Efficient and Privacy Preserving Group Signature for Federated Learning [2.121963121603413]
Federated Learning(FL)は、ユーザデータのプライバシに対する脅威を軽減することを目的とした機械学習(ML)テクニックである。
本稿では,グループ署名に基づくFLの効率的かつプライバシ保護プロトコルを提案する。
論文 参考訳(メタデータ) (2022-07-12T04:12:10Z) - Collusion Resistant Federated Learning with Oblivious Distributed
Differential Privacy [4.951247283741297]
プライバシ保護フェデレーション学習は、分散クライアントの集団が共同で共有モデルを学ぶことを可能にする。
本稿では、このようなクライアントの共謀に対して最初に保護する、難解な分散差分プライバシーに基づく効率的なメカニズムを提案する。
我々は,プロトコルの実行速度,学習精度,および2つのデータセットのプライバシ性能を実証的に分析した。
論文 参考訳(メタデータ) (2022-02-20T19:52:53Z) - Decepticons: Corrupted Transformers Breach Privacy in Federated Learning
for Language Models [58.631918656336005]
悪意のあるパラメータベクトルを配置することで、プライベートなユーザテキストを明らかにする新たな攻撃を提案する。
FLに対する以前の攻撃とは異なり、攻撃はTransformerアーキテクチャとトークンの埋め込みの両方の特徴を利用する。
論文 参考訳(メタデータ) (2022-01-29T22:38:21Z) - Eluding Secure Aggregation in Federated Learning via Model Inconsistency [2.647302105102753]
フェデレートされた学習により、ユーザーはプライベートトレーニングデータセット上でディープニューラルネットワークをトレーニングできる。
悪意のあるサーバは,たとえ後者が存在していなかったとしても,セキュアなアグリゲーションを容易に回避できることを示す。
個別のプライベートトレーニングデータセットに関する情報を推測できる2つの異なる攻撃を考案する。
論文 参考訳(メタデータ) (2021-11-14T16:09:11Z) - Achieving Security and Privacy in Federated Learning Systems: Survey,
Research Challenges and Future Directions [6.460846767084875]
Federated Learning (FL) により、サーバは複数の分散クライアント間で機械学習(ML)モデルを学ぶことができる。
本稿では,まずflに対するセキュリティとプライバシのアタックを調査し,各アタックを緩和するために文献で提案するソリューションを批判的に調査する。
論文 参考訳(メタデータ) (2020-12-12T13:23:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。