論文の概要: Dynamic Defense Against Byzantine Poisoning Attacks in Federated
Learning
- arxiv url: http://arxiv.org/abs/2007.15030v2
- Date: Thu, 24 Feb 2022 16:01:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-05 19:25:48.462979
- Title: Dynamic Defense Against Byzantine Poisoning Attacks in Federated
Learning
- Title(参考訳): 連合学習におけるビザンチン中毒に対する動的防御
- Authors: Nuria Rodr\'iguez-Barroso, Eugenio Mart\'inez-C\'amara, M. Victoria
Luz\'on, Francisco Herrera
- Abstract要約: フェデレート・ラーニングはビザチンによる敵対的な攻撃に弱い。
本稿では,これらのクライアントを動的に破棄する動的集約演算子を提案する。
その結果,集約するクライアントの動的選択により,グローバル学習モデルの性能が向上することが示唆された。
- 参考スコア(独自算出の注目度): 11.117880929232575
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning, as a distributed learning that conducts the training on
the local devices without accessing to the training data, is vulnerable to
Byzatine poisoning adversarial attacks. We argue that the federated learning
model has to avoid those kind of adversarial attacks through filtering out the
adversarial clients by means of the federated aggregation operator. We propose
a dynamic federated aggregation operator that dynamically discards those
adversarial clients and allows to prevent the corruption of the global learning
model. We assess it as a defense against adversarial attacks deploying a deep
learning classification model in a federated learning setting on the Fed-EMNIST
Digits, Fashion MNIST and CIFAR-10 image datasets. The results show that the
dynamic selection of the clients to aggregate enhances the performance of the
global learning model and discards the adversarial and poor (with low quality
models) clients.
- Abstract(参考訳): フェデレーション学習(federated learning)は、トレーニングデータにアクセスせずにローカルデバイス上でトレーニングを行う分散学習であり、ビザチン中毒による敵の攻撃に対して脆弱である。
フェデレーション学習モデルは、フェデレーションアグリゲーション演算子によって敵クライアントをフィルタリングすることで、このような敵攻撃を避ける必要があると主張する。
本稿では,これらのクライアントを動的に破棄し,グローバル学習モデルの破損を防止する動的連合集約演算子を提案する。
我々は、Fed-EMNIST Digits、Fashion MNIST、CIFAR-10の画像データセットに基づく、深層学習分類モデルを展開する敵攻撃に対する防御として評価する。
その結果,集約するクライアントの動的選択により,グローバル学習モデルの性能が向上し,(低品質モデルを用いて)敵対的かつ貧弱なクライアントを破棄できることがわかった。
関連論文リスト
- Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - Mitigating Cross-client GANs-based Attack in Federated Learning [78.06700142712353]
マルチ分散マルチメディアクライアントは、グローバル共有モデルの共同学習のために、フェデレートラーニング(FL)を利用することができる。
FLは、GAN(C-GANs)をベースとしたクロスクライアント・ジェネレーティブ・敵ネットワーク(GANs)攻撃に苦しむ。
C-GAN攻撃に抵抗する現在のFLスキームを改善するためのFed-EDKD手法を提案する。
論文 参考訳(メタデータ) (2023-07-25T08:15:55Z) - FedDefender: Client-Side Attack-Tolerant Federated Learning [60.576073964874]
フェデレーション学習は、プライバシを損なうことなく、分散化されたデータソースからの学習を可能にする。
悪意のあるクライアントがトレーニングプロセスに干渉する、毒殺攻撃のモデル化には脆弱である。
我々はFedDefenderと呼ばれるクライアントサイドに焦点を当てた新しい防御機構を提案し、クライアントの堅牢なローカルモデルのトレーニングを支援する。
論文 参考訳(メタデータ) (2023-07-18T08:00:41Z) - Combating Exacerbated Heterogeneity for Robust Models in Federated
Learning [91.88122934924435]
対人訓練と連合学習の組み合わせは、望ましくない頑丈さの劣化につながる可能性がある。
我々は、Slack Federated Adversarial Training (SFAT)と呼ばれる新しいフレームワークを提案する。
各種ベンチマークおよび実世界のデータセットに対するSFATの合理性と有効性を検証する。
論文 参考訳(メタデータ) (2023-03-01T06:16:15Z) - FLCert: Provably Secure Federated Learning against Poisoning Attacks [67.8846134295194]
FLCertは、有毒な攻撃に対して確実に安全であるアンサンブル・フェデレート学習フレームワークである。
実験の結果,テスト入力に対するFLCertで予測されたラベルは,有意な数の悪意のあるクライアントによって影響を受けないことが判明した。
論文 参考訳(メタデータ) (2022-10-02T17:50:04Z) - Characterizing Internal Evasion Attacks in Federated Learning [12.873984200814533]
フェデレートされた学習は、クライアントが機械学習モデルを共同でトレーニングすることを可能にする。
クライアントのモデルは、トレーニングとテストフェーズにおける攻撃に対して脆弱である。
本稿では,「内部回避攻撃」を行う敵クライアントの問題に対処する。
論文 参考訳(メタデータ) (2022-09-17T21:46:38Z) - Network-Level Adversaries in Federated Learning [21.222645649379672]
ネットワークレベルの敵がフェデレーション学習モデルの訓練に与える影響について検討する。
攻撃者は、慎重に選択されたクライアントからネットワークトラフィックを落とすことで、ターゲット個体数のモデル精度を著しく低下させることができることを示す。
我々は,攻撃の影響を緩和するサーバサイドディフェンスを開発し,攻撃対象の精度に肯定的に寄与する可能性のあるクライアントを特定し,アップサンプリングすることで,攻撃の影響を緩和する。
論文 参考訳(メタデータ) (2022-08-27T02:42:04Z) - Certified Federated Adversarial Training [3.474871319204387]
我々は、労働者のクォーラムが完全に悪意のある場合、FLシステムに敵の訓練を施すシナリオに取り組む。
我々は、モデルに毒を盛ったアタッカーをモデル化し、そのモデルが明らかに敵の堅牢性を示すように、敵の訓練に弱点を挿入する。
この防御は、アダプティブアタックに対してさえも、敵の堅牢性を維持することができることを示す。
論文 参考訳(メタデータ) (2021-12-20T13:40:20Z) - RobustFed: A Truth Inference Approach for Robust Federated Learning [9.316565110931743]
フェデレートラーニング(Federated Learning)は、クライアントが中央サーバのオーケストレーションの下で協調的にグローバルなモデルをトレーニングすることを可能にするフレームワークである。
統合学習における集約ステップは、中央サーバがクライアントの動作を管理することができないため、敵攻撃に対して脆弱である。
本稿では,クラウドソーシングにおける真理推論手法に着想を得た新しいロバスト集約アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-07-18T09:34:57Z) - Stylized Adversarial Defense [105.88250594033053]
逆行訓練は摂動パターンを生成し、モデルを堅牢化するためのトレーニングセットにそれらを含む。
我々は、より強力な敵を作るために、機能空間から追加情報を活用することを提案する。
我々の対人訓練アプローチは、最先端の防御と比べて強い堅牢性を示している。
論文 参考訳(メタデータ) (2020-07-29T08:38:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。