論文の概要: Dynamic Meta-Layer Aggregation for Byzantine-Robust Federated Learning
- arxiv url: http://arxiv.org/abs/2603.16846v1
- Date: Tue, 17 Mar 2026 17:54:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-18 17:42:07.463927
- Title: Dynamic Meta-Layer Aggregation for Byzantine-Robust Federated Learning
- Title(参考訳): ビザンチン・ロバスト・フェデレーション学習のための動的メタ層凝集
- Authors: Reek Das, Biplab Kanti Sen,
- Abstract要約: フェデレートされた学習システムは、悪意のある更新を注入するビザンティンの敵に影響を受けやすい。
我々は,多ラベルフリップと標的外毒攻撃に対抗する新しい防御機構であるFedAOTを提案する。
計算効率を保ちながらモデル精度とレジリエンスを大幅に向上することを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) is increasingly applied in sectors like healthcare, finance, and IoT, enabling collaborative model training while safeguarding user privacy. However, FL systems are susceptible to Byzantine adversaries that inject malicious updates, which can severely compromise global model performance. Existing defenses tend to focus on specific attack types and fail against untargeted strategies, such as multi-label flipping or combinations of noise and backdoor patterns. To overcome these limitations, we propose FedAOT-a novel defense mechanism that counters multi-label flipping and untargeted poisoning attacks using a metalearning-inspired adaptive aggregation framework. FedAOT dynamically weights client updates based on their reliability, suppressing adversarial influence without relying on predefined thresholds or restrictive attack assumptions. Notably, FedAOT generalizes effectively across diverse datasets and a wide range of attack types, maintaining robust performance even in previously unseen scenarios. Experimental results demonstrate that FedAOT substantially improves model accuracy and resilience while maintaining computational efficiency, offering a scalable and practical solution for secure federated learning.
- Abstract(参考訳): フェデレートラーニング(FL)は、医療、金融、IoTといった分野にますます適用され、ユーザのプライバシを保護するとともに、協調的なモデルトレーニングを可能にしている。
しかし、FLシステムは悪質な更新を注入するビザンツの敵に感受性があり、グローバルなモデル性能を著しく損なう可能性がある。
既存の防御は特定の攻撃タイプに重点を置いており、マルチラベルのフリップやノイズとバックドアパターンの組み合わせなど、標的にされていない戦略に失敗する傾向がある。
これらの制限を克服するために,メタラーニングに着想を得た適応アグリゲーションフレームワークを用いて,多ラベルフリップや標的外毒攻撃に対抗する新しい防御機構であるFedAOTを提案する。
FedAOTはクライアントの信頼性に基づいて動的に更新を重み付け、事前定義されたしきい値や限定的な攻撃仮定に頼ることなく、敵の影響を抑える。
特に、FedAOTは多様なデータセットと広範囲の攻撃タイプを効果的に一般化し、これまで見つからなかったシナリオでも堅牢なパフォーマンスを維持している。
実験により、FedAOTは計算効率を維持しながらモデルの精度とレジリエンスを大幅に改善し、セキュアなフェデレーション学習のためのスケーラブルで実用的なソリューションを提供することを示した。
関連論文リスト
- FLAegis: A Two-Layer Defense Framework for Federated Learning Against Poisoning Attacks [2.6599014990168843]
フェデレートラーニング(FL)は、機械学習(ML)モデルを分散的にトレーニングするための強力なテクニックとなっている。
ビザンティンの顧客として知られる第三者は、偽モデルのアップデートを提出することでトレーニングプロセスに悪影響を及ぼす可能性がある。
本研究では、ビザンティンのクライアントを特定し、FLシステムの堅牢性を改善するために設計された2段階の防御フレームワークであるFLAegisを紹介する。
論文 参考訳(メタデータ) (2025-08-26T07:09:15Z) - DOPA: Stealthy and Generalizable Backdoor Attacks from a Single Client under Challenging Federated Constraints [2.139012072214621]
フェデレーテッド・ラーニング(FL)は、プライバシー保護のための協調トレーニングにますます採用されているが、その分散した性質は、バックドア攻撃の影響を受けやすい。
しかし、既存の攻撃方法は、しばしば理想化された仮定に依存し、現実の制約の下で有効に保たない。
異種ローカルトレーニングのダイナミクスをシミュレートし,多種多様な最適化トラジェクトリ間のコンセンサスを求める新しいフレームワークであるDOPAを提案する。
論文 参考訳(メタデータ) (2025-08-20T08:39:12Z) - R-TPT: Improving Adversarial Robustness of Vision-Language Models through Test-Time Prompt Tuning [69.72249695674665]
視覚言語モデル(VLM)のためのロバストテスト時プロンプトチューニング(R-TPT)を提案する。
R-TPTは、推論段階における敵攻撃の影響を緩和する。
プラグアンドプレイの信頼性に基づく重み付きアンサンブル戦略を導入し,防御強化を図る。
論文 参考訳(メタデータ) (2025-04-15T13:49:31Z) - Byzantine-Robust Federated Learning Using Generative Adversarial Networks [1.4091801425319963]
フェデレートラーニング(FL)は、生データを共有せずに分散クライアント間で協調的なモデルトレーニングを可能にするが、その堅牢性は、データやモデル中毒といったビザンチンの行動によって脅かされている。
本稿では,クライアントの更新を検証するための代表データを生成するために,サーバ上の条件付き生成逆ネットワーク(cGAN)を活用することで,これらの課題に対処する防衛フレームワークを提案する。
このアプローチは、外部データセットへの依存を排除し、多様な攻撃戦略に適応し、標準FLにシームレスに統合する。
論文 参考訳(メタデータ) (2025-03-26T18:00:56Z) - Celtibero: Robust Layered Aggregation for Federated Learning [0.0]
Celtiberoは, 対向操作に対する強靭性を高めるため, 層状アグリゲーションを統合した新しい防御機構である。
セルティベロは、標的外および標的標的の毒殺攻撃において、最小攻撃成功率(ASR)を維持しつつ、常に高い主タスク精度(MTA)を達成することを実証した。
論文 参考訳(メタデータ) (2024-08-26T12:54:00Z) - FedRDF: A Robust and Dynamic Aggregation Function against Poisoning
Attacks in Federated Learning [0.0]
Federated Learning(FL)は、集中型機械学習(ML)デプロイメントに関連する典型的なプライバシ問題に対する、有望なアプローチである。
そのよく知られた利点にもかかわらず、FLはビザンツの行動や毒殺攻撃のようなセキュリティ攻撃に弱い。
提案手法は各種モデル毒殺攻撃に対して試験され,最先端の凝集法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-02-15T16:42:04Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。