論文の概要: Achieving Security and Privacy in Federated Learning Systems: Survey,
Research Challenges and Future Directions
- arxiv url: http://arxiv.org/abs/2012.06810v1
- Date: Sat, 12 Dec 2020 13:23:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-10 05:15:10.849798
- Title: Achieving Security and Privacy in Federated Learning Systems: Survey,
Research Challenges and Future Directions
- Title(参考訳): フェデレーション学習システムにおけるセキュリティとプライバシの獲得:調査,研究課題,今後の方向性
- Authors: Alberto Blanco-Justicia, Josep Domingo-Ferrer, Sergio Mart\'inez,
David S\'anchez, Adrian Flanagan and Kuan Eeik Tan
- Abstract要約: Federated Learning (FL) により、サーバは複数の分散クライアント間で機械学習(ML)モデルを学ぶことができる。
本稿では,まずflに対するセキュリティとプライバシのアタックを調査し,各アタックを緩和するために文献で提案するソリューションを批判的に調査する。
- 参考スコア(独自算出の注目度): 6.460846767084875
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) allows a server to learn a machine learning (ML)
model across multiple decentralized clients that privately store their own
training data. In contrast with centralized ML approaches, FL saves computation
to the server and does not require the clients to outsource their private data
to the server. However, FL is not free of issues. On the one hand, the model
updates sent by the clients at each training epoch might leak information on
the clients' private data. On the other hand, the model learnt by the server
may be subjected to attacks by malicious clients; these security attacks might
poison the model or prevent it from converging. In this paper, we first examine
security and privacy attacks to FL and critically survey solutions proposed in
the literature to mitigate each attack. Afterwards, we discuss the difficulty
of simultaneously achieving security and privacy protection. Finally, we sketch
ways to tackle this open problem and attain both security and privacy.
- Abstract(参考訳): フェデレーション・ラーニング(FL)は、サーバが機械学習(ML)モデルを学習し、複数の分散クライアントで独自のトレーニングデータをプライベートに格納することを可能にする。
集中型MLアプローチとは対照的に、FLは計算をサーバに保存し、クライアントがプライベートデータをサーバにアウトソースする必要がない。
しかし、FLには問題はない。
一方、各トレーニングエポックでクライアントが送信したモデル更新は、クライアントのプライベートデータに関する情報を漏洩させる可能性がある。
一方、サーバが学習したモデルは悪意のあるクライアントによる攻撃を受ける可能性がある。
本稿では,まずflに対するセキュリティとプライバシのアタックを調査し,各アタックを緩和するために文献で提案するソリューションを批判的に調査する。
その後,セキュリティとプライバシ保護を同時に達成することの難しさについて論じる。
最後に、このオープンな問題に対処し、セキュリティとプライバシの両方を達成する方法をスケッチします。
関連論文リスト
- Federated Learning Privacy: Attacks, Defenses, Applications, and Policy Landscape - A Survey [27.859861825159342]
ディープラーニングは、さまざまなタスクにおいて、信じられないほど大きな可能性を秘めている。
プライバシーに関する最近の懸念は、そのようなデータにアクセスする際の課題をさらに強調している。
フェデレーション学習は重要なプライバシー保護技術として登場した。
論文 参考訳(メタデータ) (2024-05-06T16:55:20Z) - Robust Federated Learning Mitigates Client-side Training Data Distribution Inference Attacks [48.70867241987739]
InferGuardは、クライアント側のトレーニングデータ分散推論攻撃に対する防御を目的とした、新しいビザンチン・ロバスト集約ルールである。
実験の結果,我々の防衛機構はクライアント側のトレーニングデータ分布推定攻撃に対する防御に極めて有効であることが示唆された。
論文 参考訳(メタデータ) (2024-03-05T17:41:35Z) - Security and Privacy Issues and Solutions in Federated Learning for
Digital Healthcare [0.0]
フェデレートラーニング(Federated Learning)の幅広い攻撃面に基づいて,脆弱性,攻撃,防御を提示する。
我々は、より堅牢なFLに向けた新しい研究の方向性を期待する。
論文 参考訳(メタデータ) (2024-01-16T16:07:53Z) - FedBayes: A Zero-Trust Federated Learning Aggregation to Defend Against
Adversarial Attacks [1.689369173057502]
フェデレートラーニング(Federated Learning)は、クライアントデータに直接アクセスすることなく、マシンラーニングモデルをトレーニングする分散メソッドを開発した。
悪意のあるクライアントは、グローバルモデルを破壊し、フェデレーション内のすべてのクライアントのパフォーマンスを低下させることができる。
新たなアグリゲーション手法であるFedBayesは、クライアントのモデル重みの確率を計算することにより、悪意のあるクライアントの効果を緩和する。
論文 参考訳(メタデータ) (2023-12-04T21:37:50Z) - SaFL: Sybil-aware Federated Learning with Application to Face
Recognition [13.914187113334222]
Federated Learning(FL)は、顧客間で共同学習を行う機械学習パラダイムである。
マイナス面として、FLは研究を開始したばかりのセキュリティとプライバシに関する懸念を提起している。
本稿では,SAFL と呼ばれる FL の毒殺攻撃に対する新しい防御法を提案する。
論文 参考訳(メタデータ) (2023-11-07T21:06:06Z) - Mitigating Cross-client GANs-based Attack in Federated Learning [78.06700142712353]
マルチ分散マルチメディアクライアントは、グローバル共有モデルの共同学習のために、フェデレートラーニング(FL)を利用することができる。
FLは、GAN(C-GANs)をベースとしたクロスクライアント・ジェネレーティブ・敵ネットワーク(GANs)攻撃に苦しむ。
C-GAN攻撃に抵抗する現在のFLスキームを改善するためのFed-EDKD手法を提案する。
論文 参考訳(メタデータ) (2023-07-25T08:15:55Z) - FedDefender: Client-Side Attack-Tolerant Federated Learning [60.576073964874]
フェデレーション学習は、プライバシを損なうことなく、分散化されたデータソースからの学習を可能にする。
悪意のあるクライアントがトレーニングプロセスに干渉する、毒殺攻撃のモデル化には脆弱である。
我々はFedDefenderと呼ばれるクライアントサイドに焦点を当てた新しい防御機構を提案し、クライアントの堅牢なローカルモデルのトレーニングを支援する。
論文 参考訳(メタデータ) (2023-07-18T08:00:41Z) - Efficient and Privacy Preserving Group Signature for Federated Learning [2.121963121603413]
Federated Learning(FL)は、ユーザデータのプライバシに対する脅威を軽減することを目的とした機械学習(ML)テクニックである。
本稿では,グループ署名に基づくFLの効率的かつプライバシ保護プロトコルを提案する。
論文 参考訳(メタデータ) (2022-07-12T04:12:10Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z) - RoFL: Attestable Robustness for Secure Federated Learning [59.63865074749391]
フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
論文 参考訳(メタデータ) (2021-07-07T15:42:49Z) - Privacy and Robustness in Federated Learning: Attacks and Defenses [74.62641494122988]
このトピックに関する最初の包括的な調査を実施します。
FLの概念の簡潔な紹介と、1脅威モデル、2堅牢性に対する中毒攻撃と防御、3プライバシーに対する推論攻撃と防御、というユニークな分類学を通じて、私たちはこの重要なトピックのアクセス可能なレビューを提供します。
論文 参考訳(メタデータ) (2020-12-07T12:11:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。