論文の概要: AFLGuard: Byzantine-robust Asynchronous Federated Learning
- arxiv url: http://arxiv.org/abs/2212.06325v1
- Date: Tue, 13 Dec 2022 02:07:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-14 15:50:54.550636
- Title: AFLGuard: Byzantine-robust Asynchronous Federated Learning
- Title(参考訳): aflguard:ビザンチンロバスト非同期連合学習
- Authors: Minghong Fang, Jia Liu, Neil Zhenqiang Gong, Elizabeth S. Bentley
- Abstract要約: 非同期FLは、クライアントのモデル更新が到達したら、他のクライアントのモデル更新を待つことなく、サーバがモデルを更新できるようにすることを目的としている。
悪意のあるクライアントがローカルデータや/またはモデルのアップデートをサーバに送信することでモデルを操作できる。
本稿では,ビザンチンロスの非同期FL法であるAFLGuardを提案する。
- 参考スコア(独自算出の注目度): 41.47838381772442
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) is an emerging machine learning paradigm, in which
clients jointly learn a model with the help of a cloud server. A fundamental
challenge of FL is that the clients are often heterogeneous, e.g., they have
different computing powers, and thus the clients may send model updates to the
server with substantially different delays. Asynchronous FL aims to address
this challenge by enabling the server to update the model once any client's
model update reaches it without waiting for other clients' model updates.
However, like synchronous FL, asynchronous FL is also vulnerable to poisoning
attacks, in which malicious clients manipulate the model via poisoning their
local data and/or model updates sent to the server. Byzantine-robust FL aims to
defend against poisoning attacks. In particular, Byzantine-robust FL can learn
an accurate model even if some clients are malicious and have Byzantine
behaviors. However, most existing studies on Byzantine-robust FL focused on
synchronous FL, leaving asynchronous FL largely unexplored. In this work, we
bridge this gap by proposing AFLGuard, a Byzantine-robust asynchronous FL
method. We show that, both theoretically and empirically, AFLGuard is robust
against various existing and adaptive poisoning attacks (both untargeted and
targeted). Moreover, AFLGuard outperforms existing Byzantine-robust
asynchronous FL methods.
- Abstract(参考訳): Federated Learning(FL)は、クライアントがクラウドサーバの助けを借りてモデルを共同で学習する、新たな機械学習パラダイムである。
FLの根本的な課題は、クライアントはしばしば異種であり、例えば、異なる計算能力を持っているため、クライアントは大幅に異なる遅延でモデル更新をサーバに送ることができる。
非同期flは、クライアントのモデル更新が他のクライアントのモデル更新を待つことなく到達すれば、サーバがモデルを更新することを可能にすることで、この課題に対処することを目指している。
しかし、同期flと同様に、非同期flは毒殺攻撃にも脆弱であり、悪意のあるクライアントがローカルデータやサーバに送られるモデル更新を毒殺することでモデルを操作する。
ビザンティン・ロバストFLは、毒殺攻撃を防ごうとしている。
特に、Byzantine-robust FLは、悪意のあるクライアントがビザンチンの振る舞いを持っている場合でも、正確なモデルを学ぶことができる。
しかしながら、Byzantine-robust FLに関する既存の研究は同期FLに焦点を当てており、非同期FLはほとんど探索されていない。
本研究では,ビザンチンロバスト非同期fl法であるaflguardを提案することで,このギャップを埋める。
理論的にも実証的にも,AFLGuardは様々な既存かつ適応的な毒殺攻撃(標的外および標的外の両方)に対して堅牢であることを示す。
さらに、AFLGuardは既存のByzantine-robust非同期FLメソッドよりも優れている。
関連論文リスト
- FLGuard: Byzantine-Robust Federated Learning via Ensemble of Contrastive
Models [2.7539214125526534]
フェデレートラーニング(FL)は、多くのクライアントとグローバルモデルのトレーニングで活躍する。
近年の研究では、世界モデルの精度に壊滅的な損失をもたらす中毒攻撃が提案されている。
本稿では、悪意のあるクライアントを検出し、悪意のあるローカル更新を破棄する新しいバイザンチン・ロバストFL法FLGuardを提案する。
論文 参考訳(メタデータ) (2024-03-05T10:36:27Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - Mitigating Cross-client GANs-based Attack in Federated Learning [78.06700142712353]
マルチ分散マルチメディアクライアントは、グローバル共有モデルの共同学習のために、フェデレートラーニング(FL)を利用することができる。
FLは、GAN(C-GANs)をベースとしたクロスクライアント・ジェネレーティブ・敵ネットワーク(GANs)攻撃に苦しむ。
C-GAN攻撃に抵抗する現在のFLスキームを改善するためのFed-EDKD手法を提案する。
論文 参考訳(メタデータ) (2023-07-25T08:15:55Z) - Model Extraction Attacks on Split Federated Learning [36.81477031150716]
Federated Learning(FL)は、複数のクライアントとサーバを含む一般的な協調学習スキームである。
FLはクライアントのデータ保護に重点を置いているが、知的財産権(IP)の脅威に対して非常に脆弱であることが判明した。
本稿では、悪意のあるクライアントがサーバ側から勾配情報をクエリすることで、モデル抽出(ME)攻撃を起動する方法を示す。
論文 参考訳(メタデータ) (2023-03-13T20:21:51Z) - FLDetector: Defending Federated Learning Against Model Poisoning Attacks
via Detecting Malicious Clients [39.88152764752553]
フェデレート・ラーニング(Federated Learning, FL)は、モデル中毒攻撃に対して脆弱である。
悪意のあるクライアントは、操作されたモデルの更新をサーバに送信することで、グローバルモデルを破壊しました。
私たちのFLDetectorは、悪意のあるクライアントの大部分を検出し、削除することを目的としています。
論文 参考訳(メタデータ) (2022-07-19T11:44:24Z) - Robust Quantity-Aware Aggregation for Federated Learning [72.59915691824624]
悪意のあるクライアントは、モデル更新を害し、モデルアグリゲーションにおけるモデル更新の影響を増幅するために大量の要求を行う。
FLの既存の防御メソッドは、悪意のあるモデル更新を処理する一方で、すべての量の良性を扱うか、単にすべてのクライアントの量を無視/停止するだけである。
本稿では,フェデレーション学習のためのロバストな量認識アグリゲーションアルゴリズムであるFedRAを提案し,局所的なデータ量を認識してアグリゲーションを行う。
論文 参考訳(メタデータ) (2022-05-22T15:13:23Z) - Decepticons: Corrupted Transformers Breach Privacy in Federated Learning
for Language Models [58.631918656336005]
悪意のあるパラメータベクトルを配置することで、プライベートなユーザテキストを明らかにする新たな攻撃を提案する。
FLに対する以前の攻撃とは異なり、攻撃はTransformerアーキテクチャとトークンの埋め込みの両方の特徴を利用する。
論文 参考訳(メタデータ) (2022-01-29T22:38:21Z) - Jamming Attacks on Federated Learning in Wireless Networks [3.6582851384058594]
フェデレートラーニング(FL)は、クライアントグループが協力してサーバでグローバルモデルをトレーニングできるように、分散学習環境を提供する。
本稿では,無線ネットワーク上で実行されたFLプロセスに障害を与えるため,空対空ジャミング攻撃の起動方法について検討する。
論文 参考訳(メタデータ) (2022-01-13T19:00:52Z) - RoFL: Attestable Robustness for Secure Federated Learning [59.63865074749391]
フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
論文 参考訳(メタデータ) (2021-07-07T15:42:49Z) - BlockFLA: Accountable Federated Learning via Hybrid Blockchain
Architecture [11.908715869667445]
Federated Learning (FL) は、分散された分散化された機械学習プロトコルである。
FL中、攻撃者が訓練されたモデルにバックドアを注入できることが示されている。
我々は、スマートコントラクトを使用して攻撃者を自動的に検出し、処罰する、ハイブリッドブロックチェーンベースのFLフレームワークを開発した。
論文 参考訳(メタデータ) (2020-10-14T22:43:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。