論文の概要: Robust Federated Learning under Adversarial Attacks via Loss-Based Client Clustering
- arxiv url: http://arxiv.org/abs/2508.12672v2
- Date: Tue, 19 Aug 2025 05:06:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-20 13:30:22.891346
- Title: Robust Federated Learning under Adversarial Attacks via Loss-Based Client Clustering
- Title(参考訳): ロスベースクライアントクラスタリングによる敵攻撃下でのロバストなフェデレーション学習
- Authors: Emmanouil Kritharakis, Dusan Jakovetic, Antonios Makris, Konstantinos Tserpes,
- Abstract要約: フェデレートラーニング(FL)は、プライベートデータを共有せずに、複数のクライアント間で協調的なモデルトレーニングを可能にする。
FLサーバは信頼できる(正直な)サイドデータセットを持ち、FLクライアントが敵(ビザンチン)攻撃を受ける場合のFLシナリオを考察する。
- 参考スコア(独自算出の注目度): 3.090198064353614
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) enables collaborative model training across multiple clients without sharing private data. We consider FL scenarios wherein FL clients are subject to adversarial (Byzantine) attacks, while the FL server is trusted (honest) and has a trustworthy side dataset. This may correspond to, e.g., cases where the server possesses trusted data prior to federation, or to the presence of a trusted client that temporarily assumes the server role. Our approach requires only two honest participants, i.e., the server and one client, to function effectively, without prior knowledge of the number of malicious clients. Theoretical analysis demonstrates bounded optimality gaps even under strong Byzantine attacks. Experimental results show that our algorithm significantly outperforms standard and robust FL baselines such as Mean, Trimmed Mean, Median, Krum, and Multi-Krum under various attack strategies including label flipping, sign flipping, and Gaussian noise addition across MNIST, FMNIST, and CIFAR-10 benchmarks using the Flower framework.
- Abstract(参考訳): フェデレートラーニング(FL)は、プライベートデータを共有せずに、複数のクライアント間で協調的なモデルトレーニングを可能にする。
FLサーバは信頼できる(正直な)サイドデータセットを持ち、FLクライアントが敵(ビザンチン)攻撃を受ける場合のFLシナリオを考察する。
これは例えば、サーバがフェデレーションの前に信頼されたデータを持っている場合や、サーバの役割を一時的に引き受けている信頼されたクライアントの存在に対応します。
私たちのアプローチでは、悪意のあるクライアントの数を事前に知ることなく、効果的に機能するために、サーバと1つのクライアントという、2つの正直な参加者しか必要としません。
理論的解析は、強力なビザンツ攻撃でさえ境界最適性ギャップを示す。
実験の結果,MNIST,FMNIST,CIFAR-10ベンチマークを用いたラベルフリップ,シグフリップ,ガウス雑音付加など,様々な攻撃戦略の下で,Mean,Trimmed Mean,Median,Krum,Multi-Krumなどの標準FLベースラインとロバストFLベースラインを著しく上回ることがわかった。
関連論文リスト
- FL-PLAS: Federated Learning with Partial Layer Aggregation for Backdoor Defense Against High-Ratio Malicious Clients [7.1383449614815415]
フェデレートラーニング(FL)は、新たなコラボレーティブ機械学習アプローチとして注目を集めている。
FLの基本アルゴリズムであるFederated Averaging (FedAvg)は、バックドア攻撃の影響を受けやすい。
バックドア攻撃からローカルモデルを効果的に保護できる新しい防御アルゴリズムFL-PLASを提案する。
論文 参考訳(メタデータ) (2025-05-17T14:16:47Z) - Rethinking Byzantine Robustness in Federated Recommendation from Sparse Aggregation Perspective [65.65471972217814]
フェデレーションラーニング(FL)に基づいたフェデレーションレコメンデーション(FR)が出現し、個人データをローカルクライアントに保持し、モデルを協調的に更新する。
FR には独自のスパース集約機構があり、各項目の埋め込みは、一般の FL の密集集合において、完全なクライアントではなく、部分的なクライアントによって更新される。
本稿では,単一項目の集約を最小の実行単位として定義することにより,スパースアグリゲーションの下でのビザンチンのロバスト性を再構成する。
本研究では,スパースアグリゲーションの脆弱性を悪用し,敵の知識と能力に沿って分類する,Sp attackという効果的な攻撃戦略のファミリーを提案する。
論文 参考訳(メタデータ) (2025-01-06T15:19:26Z) - Formal Logic-guided Robust Federated Learning against Poisoning Attacks [6.997975378492098]
Federated Learning (FL)は、集中型機械学習(ML)に関連するプライバシー問題に対して、有望な解決策を提供する。
FLは、敵クライアントがトレーニングデータやモデル更新を操作して全体的なモデルパフォーマンスを低下させる、毒殺攻撃など、さまざまなセキュリティ上の脅威に対して脆弱である。
本稿では,時系列タスクにおけるフェデレート学習における中毒攻撃の軽減を目的とした防御機構を提案する。
論文 参考訳(メタデータ) (2024-11-05T16:23:19Z) - Robust Federated Learning Mitigates Client-side Training Data Distribution Inference Attacks [48.70867241987739]
InferGuardは、クライアント側のトレーニングデータ分散推論攻撃に対する防御を目的とした、新しいビザンチン・ロバスト集約ルールである。
実験の結果,我々の防衛機構はクライアント側のトレーニングデータ分布推定攻撃に対する防御に極めて有効であることが示唆された。
論文 参考訳(メタデータ) (2024-03-05T17:41:35Z) - FL Games: A Federated Learning Framework for Distribution Shifts [71.98708418753786]
フェデレートラーニングは、サーバのオーケストレーションの下で、クライアント間で分散されたデータの予測モデルをトレーニングすることを目的としている。
本稿では,クライアント間で不変な因果的特徴を学習するフェデレーション学習のためのゲーム理論フレームワークFL GAMESを提案する。
論文 参考訳(メタデータ) (2022-10-31T22:59:03Z) - FLCert: Provably Secure Federated Learning against Poisoning Attacks [67.8846134295194]
FLCertは、有毒な攻撃に対して確実に安全であるアンサンブル・フェデレート学習フレームワークである。
実験の結果,テスト入力に対するFLCertで予測されたラベルは,有意な数の悪意のあるクライアントによって影響を受けないことが判明した。
論文 参考訳(メタデータ) (2022-10-02T17:50:04Z) - MUDGUARD: Taming Malicious Majorities in Federated Learning using
Privacy-Preserving Byzantine-Robust Clustering [34.429892915267686]
Byzantine-robust Federated Learning (FL)は、悪意のあるクライアントに対抗し、攻撃の成功率を極端に低く保ちながら、正確なグローバルモデルをトレーニングすることを目的としている。
しかし、既存のシステムのほとんどは、クライアントが正直な場合にのみ堅牢である。
本稿では,サーバ側とクライアント側の両方で悪意あるマイノリティの求職者多数で運用可能な,ビザンチン・ロバスト・プライバシ保護型FLシステム MUDGUARD を提案する。
論文 参考訳(メタデータ) (2022-08-22T09:17:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。