論文の概要: Enhanced Security and Privacy via Fragmented Federated Learning
- arxiv url: http://arxiv.org/abs/2207.05978v1
- Date: Wed, 13 Jul 2022 06:25:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-14 15:28:35.004364
- Title: Enhanced Security and Privacy via Fragmented Federated Learning
- Title(参考訳): フラグメンテッドフェデレーションラーニングによるセキュリティとプライバシの向上
- Authors: Najeeb Moharram Jebreel, Josep Domingo-Ferrer, Alberto Blanco-Justicia
and David Sanchez
- Abstract要約: フェデレートラーニング(FL)では、参加者のセットが、ローカルデータ上で計算された更新を、グローバルモデルに更新を統合するアグリゲータサーバと共有する。
サーバに送信する前に、参加者がランダムに更新の断片を交換し、混合するフラグメント付きフェデレーションラーニング(FFL)を提案する。
FFLは、半正直なサーバーがプライバシー攻撃を仕掛けるのを防ぎ、効果的に中毒攻撃を防ぎ、グローバルモデルの精度を維持することができる。
- 参考スコア(独自算出の注目度): 5.769445676575767
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In federated learning (FL), a set of participants share updates computed on
their local data with an aggregator server that combines updates into a global
model. However, reconciling accuracy with privacy and security is a challenge
to FL. On the one hand, good updates sent by honest participants may reveal
their private local information, whereas poisoned updates sent by malicious
participants may compromise the model's availability and/or integrity. On the
other hand, enhancing privacy via update distortion damages accuracy, whereas
doing so via update aggregation damages security because it does not allow the
server to filter out individual poisoned updates. To tackle the
accuracy-privacy-security conflict, we propose {\em fragmented federated
learning} (FFL), in which participants randomly exchange and mix fragments of
their updates before sending them to the server. To achieve privacy, we design
a lightweight protocol that allows participants to privately exchange and mix
encrypted fragments of their updates so that the server can neither obtain
individual updates nor link them to their originators. To achieve security, we
design a reputation-based defense tailored for FFL that builds trust in
participants and their mixed updates based on the quality of the fragments they
exchange and the mixed updates they send. Since the exchanged fragments'
parameters keep their original coordinates and attackers can be neutralized,
the server can correctly reconstruct a global model from the received mixed
updates without accuracy loss. Experiments on four real data sets show that FFL
can prevent semi-honest servers from mounting privacy attacks, can effectively
counter poisoning attacks and can keep the accuracy of the global model.
- Abstract(参考訳): federated learning (fl) では、参加者のセットが、ローカルデータで計算された更新をアグリゲータサーバと共有し、更新をグローバルモデルに結合する。
しかし、プライバシーとセキュリティとの整合性はFLにとって難しい。
一方、正直な参加者が送った良いアップデートは、個人的なローカル情報を明らかにし、悪意のある参加者が送った有害なアップデートは、モデルの可用性や整合性を損なう可能性がある。
一方、更新歪みによるプライバシの強化は精度を損なう一方、更新集約によるセキュリティは、サーバが個々の有毒な更新をフィルタリングできないため、セキュリティを損なう。
精度・プライバシ・セキュリティの対立に対処するため、参加者がサーバに送信する前に、ランダムに更新の断片を交換して混合する「フラグメンテッド・フェデレーション・ラーニング」 (FFL) を提案する。
プライバシを実現するために、私たちは、参加者が暗号化されたアップデートの断片をプライベートに交換し、混合できるように軽量なプロトコルを設計します。
セキュリティを実現するため、私たちは、交換するフラグメントの品質と送信する複合アップデートに基づいて、参加者とそれらの混合アップデートに対する信頼を構築する、ffl用に調整された評判ベースの防御をデザインします。
交換されたフラグメントのパラメータは元の座標を保持し、攻撃者は中立化することができるため、サーバは受信した混合更新から正確にグローバルモデルを再構築することができる。
4つの実際のデータセットの実験は、FFLが半正直なサーバーがプライバシー攻撃を仕掛けるのを防ぎ、効果的に中毒攻撃を防ぎ、グローバルモデルの精度を維持することができることを示している。
関連論文リスト
- Secure Aggregation is Not Private Against Membership Inference Attacks [66.59892736942953]
フェデレーション学習におけるSecAggのプライバシーへの影響について検討する。
SecAggは、単一のトレーニングラウンドであっても、メンバシップ推論攻撃に対して弱いプライバシを提供します。
以上の結果から,ノイズ注入などの付加的なプライバシー強化機構の必要性が浮き彫りになった。
論文 参考訳(メタデータ) (2024-03-26T15:07:58Z) - Robust Federated Learning Mitigates Client-side Training Data Distribution Inference Attacks [48.70867241987739]
InferGuardは、クライアント側のトレーニングデータ分散推論攻撃に対する防御を目的とした、新しいビザンチン・ロバスト集約ルールである。
実験の結果,我々の防衛機構はクライアント側のトレーニングデータ分布推定攻撃に対する防御に極めて有効であることが示唆された。
論文 参考訳(メタデータ) (2024-03-05T17:41:35Z) - Mitigating Cross-client GANs-based Attack in Federated Learning [78.06700142712353]
マルチ分散マルチメディアクライアントは、グローバル共有モデルの共同学習のために、フェデレートラーニング(FL)を利用することができる。
FLは、GAN(C-GANs)をベースとしたクロスクライアント・ジェネレーティブ・敵ネットワーク(GANs)攻撃に苦しむ。
C-GAN攻撃に抵抗する現在のFLスキームを改善するためのFed-EDKD手法を提案する。
論文 参考訳(メタデータ) (2023-07-25T08:15:55Z) - FedDefender: Client-Side Attack-Tolerant Federated Learning [60.576073964874]
フェデレーション学習は、プライバシを損なうことなく、分散化されたデータソースからの学習を可能にする。
悪意のあるクライアントがトレーニングプロセスに干渉する、毒殺攻撃のモデル化には脆弱である。
我々はFedDefenderと呼ばれるクライアントサイドに焦点を当てた新しい防御機構を提案し、クライアントの堅牢なローカルモデルのトレーニングを支援する。
論文 参考訳(メタデータ) (2023-07-18T08:00:41Z) - Client-specific Property Inference against Secure Aggregation in
Federated Learning [52.8564467292226]
フェデレートラーニングは、さまざまな参加者の間で共通のモデルを協調的に訓練するための、広く使われているパラダイムとなっている。
多くの攻撃は、メンバーシップ、資産、または参加者データの完全な再構築のような機密情報を推測することは依然として可能であることを示した。
単純な線形モデルでは、集約されたモデル更新からクライアント固有のプロパティを効果的にキャプチャできることが示される。
論文 参考訳(メタデータ) (2023-03-07T14:11:01Z) - Reconstructing Individual Data Points in Federated Learning Hardened
with Differential Privacy and Secure Aggregation [36.95590214441999]
Federated Learning(FL)は、機械学習モデルを共同でトレーニングするためのフレームワークである。
分散微分プライバシー(DDP)とセキュアアグリゲーション(SA)で保護されたFLに対する攻撃を提案する。
論文 参考訳(メタデータ) (2023-01-09T18:12:06Z) - zPROBE: Zero Peek Robustness Checks for Federated Learning [18.84828158927185]
プライバシ保護フェデレーション学習は、複数のユーザが中央サーバの調整でモデルを共同でトレーニングすることを可能にする。
個々のアップデートを非公開にしておくことで、悪意のあるユーザはビザンチン攻撃を実行し、検出されることなく精度を低下させることができる。
当社のフレームワークであるzPROBEは、ビザンチンのレジリエンスとセキュアな連邦学習を可能にする。
論文 参考訳(メタデータ) (2022-06-24T06:20:37Z) - Eluding Secure Aggregation in Federated Learning via Model Inconsistency [2.647302105102753]
フェデレートされた学習により、ユーザーはプライベートトレーニングデータセット上でディープニューラルネットワークをトレーニングできる。
悪意のあるサーバは,たとえ後者が存在していなかったとしても,セキュアなアグリゲーションを容易に回避できることを示す。
個別のプライベートトレーニングデータセットに関する情報を推測できる2つの異なる攻撃を考案する。
論文 参考訳(メタデータ) (2021-11-14T16:09:11Z) - Secure and Privacy-Preserving Federated Learning via Co-Utility [7.428782604099875]
私たちは、参加する仲間にプライバシを提供し、ビザンチンや毒殺攻撃に対するセキュリティを提供する、連合学習フレームワークを構築しています。
更新アグリゲーションによるプライバシ保護とは異なり、我々のアプローチはモデル更新の価値を保ち、従って通常のフェデレーション学習の精度を保っている。
論文 参考訳(メタデータ) (2021-08-04T08:58:24Z) - Gradient Disaggregation: Breaking Privacy in Federated Learning by
Reconstructing the User Participant Matrix [12.678765681171022]
連合学習におけるモデル更新の集約は安全でない可能性があることを示す。
信頼できない中央サーバは、参加者間のアップデートの合計からユーザ更新を分離することができる。
我々の攻撃は、学習したプロパティの個々のユーザへの属性を許容し、匿名性を侵害する。
論文 参考訳(メタデータ) (2021-06-10T23:55:28Z) - Towards Bidirectional Protection in Federated Learning [70.36925233356335]
F2ED-LEARNINGは、悪意のある集中型サーバとビザンティンの悪意のあるクライアントに対して双方向の防御を提供する。
F2ED-LEARNINGは各シャードの更新を安全に集約し、異なるシャードからの更新に対してFilterL2を起動する。
評価の結果,F2ED-LEARNing は最適あるいは最適に近い性能が得られることがわかった。
論文 参考訳(メタデータ) (2020-10-02T19:37:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。