論文の概要: AFLGuard: Byzantine-robust Asynchronous Federated Learning
- arxiv url: http://arxiv.org/abs/2212.06325v1
- Date: Tue, 13 Dec 2022 02:07:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-14 15:50:54.550636
- Title: AFLGuard: Byzantine-robust Asynchronous Federated Learning
- Title(参考訳): aflguard:ビザンチンロバスト非同期連合学習
- Authors: Minghong Fang, Jia Liu, Neil Zhenqiang Gong, Elizabeth S. Bentley
- Abstract要約: 非同期FLは、クライアントのモデル更新が到達したら、他のクライアントのモデル更新を待つことなく、サーバがモデルを更新できるようにすることを目的としている。
悪意のあるクライアントがローカルデータや/またはモデルのアップデートをサーバに送信することでモデルを操作できる。
本稿では,ビザンチンロスの非同期FL法であるAFLGuardを提案する。
- 参考スコア(独自算出の注目度): 41.47838381772442
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) is an emerging machine learning paradigm, in which
clients jointly learn a model with the help of a cloud server. A fundamental
challenge of FL is that the clients are often heterogeneous, e.g., they have
different computing powers, and thus the clients may send model updates to the
server with substantially different delays. Asynchronous FL aims to address
this challenge by enabling the server to update the model once any client's
model update reaches it without waiting for other clients' model updates.
However, like synchronous FL, asynchronous FL is also vulnerable to poisoning
attacks, in which malicious clients manipulate the model via poisoning their
local data and/or model updates sent to the server. Byzantine-robust FL aims to
defend against poisoning attacks. In particular, Byzantine-robust FL can learn
an accurate model even if some clients are malicious and have Byzantine
behaviors. However, most existing studies on Byzantine-robust FL focused on
synchronous FL, leaving asynchronous FL largely unexplored. In this work, we
bridge this gap by proposing AFLGuard, a Byzantine-robust asynchronous FL
method. We show that, both theoretically and empirically, AFLGuard is robust
against various existing and adaptive poisoning attacks (both untargeted and
targeted). Moreover, AFLGuard outperforms existing Byzantine-robust
asynchronous FL methods.
- Abstract(参考訳): Federated Learning(FL)は、クライアントがクラウドサーバの助けを借りてモデルを共同で学習する、新たな機械学習パラダイムである。
FLの根本的な課題は、クライアントはしばしば異種であり、例えば、異なる計算能力を持っているため、クライアントは大幅に異なる遅延でモデル更新をサーバに送ることができる。
非同期flは、クライアントのモデル更新が他のクライアントのモデル更新を待つことなく到達すれば、サーバがモデルを更新することを可能にすることで、この課題に対処することを目指している。
しかし、同期flと同様に、非同期flは毒殺攻撃にも脆弱であり、悪意のあるクライアントがローカルデータやサーバに送られるモデル更新を毒殺することでモデルを操作する。
ビザンティン・ロバストFLは、毒殺攻撃を防ごうとしている。
特に、Byzantine-robust FLは、悪意のあるクライアントがビザンチンの振る舞いを持っている場合でも、正確なモデルを学ぶことができる。
しかしながら、Byzantine-robust FLに関する既存の研究は同期FLに焦点を当てており、非同期FLはほとんど探索されていない。
本研究では,ビザンチンロバスト非同期fl法であるaflguardを提案することで,このギャップを埋める。
理論的にも実証的にも,AFLGuardは様々な既存かつ適応的な毒殺攻撃(標的外および標的外の両方)に対して堅牢であることを示す。
さらに、AFLGuardは既存のByzantine-robust非同期FLメソッドよりも優れている。
関連論文リスト
- Do We Really Need to Design New Byzantine-robust Aggregation Rules? [9.709243052112921]
フェデレートラーニング(FL)は、複数のクライアントがサーバを通じてグローバル機械学習モデルを協調的にトレーニングすることを可能にする。
FLの分散化の側面は、悪意のあるクライアントがグローバルモデルを操作できるような、有害な攻撃の影響を受けやすい。
我々は、毒殺に対する新しい防御機構であるFoundationFLを提示する。
論文 参考訳(メタデータ) (2025-01-29T02:28:03Z) - BlindFL: Segmented Federated Learning with Fully Homomorphic Encryption [0.0]
Federated Learning(FL)は、エッジデバイス上でAIモデルをトレーニングおよびデプロイするために使用される、プライバシ保護のエッジ・ツー・クラウド技術である。
BlindFLは、クライアントがローカルモデル更新のサブセットを暗号化して送信するグローバルモデルアグリゲーションのためのフレームワークである。
BlindFLは、単一キーFHEベースのFLスキームの最初のクライアントサイドモデル中毒攻撃を著しく阻害する。
論文 参考訳(メタデータ) (2025-01-20T18:42:21Z) - Rethinking Byzantine Robustness in Federated Recommendation from Sparse Aggregation Perspective [65.65471972217814]
フェデレーションラーニング(FL)に基づいたフェデレーションレコメンデーション(FR)が出現し、個人データをローカルクライアントに保持し、モデルを協調的に更新する。
FR には独自のスパース集約機構があり、各項目の埋め込みは、一般の FL の密集集合において、完全なクライアントではなく、部分的なクライアントによって更新される。
本稿では,単一項目の集約を最小の実行単位として定義することにより,スパースアグリゲーションの下でのビザンチンのロバスト性を再構成する。
本研究では,スパースアグリゲーションの脆弱性を悪用し,敵の知識と能力に沿って分類する,Sp attackという効果的な攻撃戦略のファミリーを提案する。
論文 参考訳(メタデータ) (2025-01-06T15:19:26Z) - Securing Federated Learning Against Novel and Classic Backdoor Threats During Foundation Model Integration [8.191214701984162]
フェデレートラーニング(FL)は、プライバシを保護しながら、分散モデルトレーニングを可能にする。
近年、ファンデーションモデル(FM)をFLに統合することで性能が向上する一方で、新たなバックドア攻撃機構が導入されている。
本稿では,サーバ上でのモデルアグリゲーション中に隠れた特徴空間における異常なアクティベーションを制限し,新たなデータフリー防衛戦略を提案する。
論文 参考訳(メタデータ) (2024-10-23T05:54:41Z) - Asynchronous Byzantine Federated Learning [4.6792910030704515]
フェデレートラーニング(FL)は、地理的に分散した一連のクライアントが、サーバを通じてモデルを集合的に訓練することを可能にする。
私たちのソリューションは、最初のビザンチン耐性および非同期FLアルゴリズムの1つである。
我々は、画像とテキストの両方のデータセットにおける最先端のアルゴリズムと比較して、ソリューションの性能を比較した。
論文 参考訳(メタデータ) (2024-06-03T15:29:38Z) - FLGuard: Byzantine-Robust Federated Learning via Ensemble of Contrastive
Models [2.7539214125526534]
フェデレートラーニング(FL)は、多くのクライアントとグローバルモデルのトレーニングで活躍する。
近年の研究では、世界モデルの精度に壊滅的な損失をもたらす中毒攻撃が提案されている。
本稿では、悪意のあるクライアントを検出し、悪意のあるローカル更新を破棄する新しいバイザンチン・ロバストFL法FLGuardを提案する。
論文 参考訳(メタデータ) (2024-03-05T10:36:27Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - Mitigating Cross-client GANs-based Attack in Federated Learning [78.06700142712353]
マルチ分散マルチメディアクライアントは、グローバル共有モデルの共同学習のために、フェデレートラーニング(FL)を利用することができる。
FLは、GAN(C-GANs)をベースとしたクロスクライアント・ジェネレーティブ・敵ネットワーク(GANs)攻撃に苦しむ。
C-GAN攻撃に抵抗する現在のFLスキームを改善するためのFed-EDKD手法を提案する。
論文 参考訳(メタデータ) (2023-07-25T08:15:55Z) - Robust Quantity-Aware Aggregation for Federated Learning [72.59915691824624]
悪意のあるクライアントは、モデル更新を害し、モデルアグリゲーションにおけるモデル更新の影響を増幅するために大量の要求を行う。
FLの既存の防御メソッドは、悪意のあるモデル更新を処理する一方で、すべての量の良性を扱うか、単にすべてのクライアントの量を無視/停止するだけである。
本稿では,フェデレーション学習のためのロバストな量認識アグリゲーションアルゴリズムであるFedRAを提案し,局所的なデータ量を認識してアグリゲーションを行う。
論文 参考訳(メタデータ) (2022-05-22T15:13:23Z) - Decepticons: Corrupted Transformers Breach Privacy in Federated Learning
for Language Models [58.631918656336005]
悪意のあるパラメータベクトルを配置することで、プライベートなユーザテキストを明らかにする新たな攻撃を提案する。
FLに対する以前の攻撃とは異なり、攻撃はTransformerアーキテクチャとトークンの埋め込みの両方の特徴を利用する。
論文 参考訳(メタデータ) (2022-01-29T22:38:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。