論文の概要: Learning to Detect Malicious Clients for Robust Federated Learning
- arxiv url: http://arxiv.org/abs/2002.00211v1
- Date: Sat, 1 Feb 2020 14:09:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-05 00:47:36.497266
- Title: Learning to Detect Malicious Clients for Robust Federated Learning
- Title(参考訳): ロバストフェデレーション学習のための悪意のあるクライアント検出学習
- Authors: Suyi Li, Yong Cheng, Wei Wang, Yang Liu, Tianjian Chen
- Abstract要約: フェデレートされた学習システムは悪意のあるクライアントからの攻撃に弱い。
我々は、中央サーバが悪意あるモデル更新を検出して削除することを学ぶ、堅牢なフェデレーション学習のための新しいフレームワークを提案する。
- 参考スコア(独自算出の注目度): 20.5238037608738
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning systems are vulnerable to attacks from malicious clients.
As the central server in the system cannot govern the behaviors of the clients,
a rogue client may initiate an attack by sending malicious model updates to the
server, so as to degrade the learning performance or enforce targeted model
poisoning attacks (a.k.a. backdoor attacks). Therefore, timely detecting these
malicious model updates and the underlying attackers becomes critically
important. In this work, we propose a new framework for robust federated
learning where the central server learns to detect and remove the malicious
model updates using a powerful detection model, leading to targeted defense. We
evaluate our solution in both image classification and sentiment analysis tasks
with a variety of machine learning models. Experimental results show that our
solution ensures robust federated learning that is resilient to both the
Byzantine attacks and the targeted model poisoning attacks.
- Abstract(参考訳): フェデレートされた学習システムは悪意のあるクライアントからの攻撃に弱い。
システム内の中央サーバがクライアントの動作を制御できないため、不正クライアントは悪意のあるモデル更新をサーバに送信することで攻撃を開始することができ、学習性能を低下させるか、標的となるモデル中毒攻撃(バックドア攻撃)を強制する。
したがって、これらの悪質なモデル更新と基盤となる攻撃者をタイムリーに検出することが重要となる。
そこで本研究では,中央サーバが強力な検出モデルを用いて悪意のあるモデル更新の検出と削除を学習し,標的防御に繋がる,堅牢な連合学習のための新しいフレームワークを提案する。
我々は、さまざまな機械学習モデルを用いて、画像分類と感情分析のタスクにおけるソリューションの評価を行った。
実験結果から,Byzantine攻撃とターゲットモデル中毒攻撃の双方に耐性のある堅牢なフェデレート学習を実現することが示唆された。
関連論文リスト
- Genetic Algorithm-Based Dynamic Backdoor Attack on Federated
Learning-Based Network Traffic Classification [1.1887808102491482]
本稿では,GABAttackを提案する。GABAttackは,ネットワークトラフィック分類のためのフェデレーション学習に対する新しい遺伝的アルゴリズムに基づくバックドア攻撃である。
この研究は、ネットワークセキュリティの専門家や実践者がこのような攻撃に対して堅牢な防御策を開発するための警告となる。
論文 参考訳(メタデータ) (2023-09-27T14:02:02Z) - Towards Attack-tolerant Federated Learning via Critical Parameter
Analysis [85.41873993551332]
フェデレートされた学習システムは、悪意のあるクライアントが中央サーバーに誤ったアップデートを送信すると、攻撃を害するおそれがある。
本稿では,新たな防衛戦略であるFedCPA(Federated Learning with critical Analysis)を提案する。
攻撃耐性凝集法は, 有害局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒であるのに対し, 類似したトップkおよびボトムk臨界パラメータを持つ。
論文 参考訳(メタデータ) (2023-08-18T05:37:55Z) - FedDefender: Client-Side Attack-Tolerant Federated Learning [60.576073964874]
フェデレーション学習は、プライバシを損なうことなく、分散化されたデータソースからの学習を可能にする。
悪意のあるクライアントがトレーニングプロセスに干渉する、毒殺攻撃のモデル化には脆弱である。
我々はFedDefenderと呼ばれるクライアントサイドに焦点を当てた新しい防御機構を提案し、クライアントの堅牢なローカルモデルのトレーニングを支援する。
論文 参考訳(メタデータ) (2023-07-18T08:00:41Z) - FedRecover: Recovering from Poisoning Attacks in Federated Learning
using Historical Information [67.8846134295194]
フェデレートラーニングは、悪意のあるクライアントが世界モデルに毒を盛る攻撃に対して脆弱である。
我々はFedRecoverを提案する。これは、クライアントに対して少量のコストで、毒殺攻撃から正確なグローバルモデルを取り戻すことができる。
論文 参考訳(メタデータ) (2022-10-20T00:12:34Z) - FLCert: Provably Secure Federated Learning against Poisoning Attacks [67.8846134295194]
FLCertは、有毒な攻撃に対して確実に安全であるアンサンブル・フェデレート学習フレームワークである。
実験の結果,テスト入力に対するFLCertで予測されたラベルは,有意な数の悪意のあるクライアントによって影響を受けないことが判明した。
論文 参考訳(メタデータ) (2022-10-02T17:50:04Z) - MPAF: Model Poisoning Attacks to Federated Learning based on Fake
Clients [51.973224448076614]
本稿では,MPAF と呼ばれる Fake クライアントをベースとした最初のモデルポジショニング攻撃を提案する。
MPAFは、たとえ古典的な防御とノルムクリッピングが採用されたとしても、グローバルモデルのテスト精度を著しく低下させることができる。
論文 参考訳(メタデータ) (2022-03-16T14:59:40Z) - TESSERACT: Gradient Flip Score to Secure Federated Learning Against
Model Poisoning Attacks [25.549815759093068]
フェデレート学習は、モデル中毒攻撃に対して脆弱である。
これは、悪意のあるクライアントが、グローバルなモデルを不正確なものにするためです。
我々は、この指向的偏差攻撃に対する防御であるTESSERACTを開発する。
論文 参考訳(メタデータ) (2021-10-19T17:03:29Z) - UnSplit: Data-Oblivious Model Inversion, Model Stealing, and Label
Inference Attacks Against Split Learning [0.0]
Split Learningフレームワークは、モデルをクライアントとサーバ間で分割することを目的としている。
分割学習パラダイムは深刻なセキュリティリスクを生じさせ,セキュリティの誤った感覚以上のものを提供しないことを示す。
論文 参考訳(メタデータ) (2021-08-20T07:39:16Z) - RoFL: Attestable Robustness for Secure Federated Learning [59.63865074749391]
フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
論文 参考訳(メタデータ) (2021-07-07T15:42:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。