論文の概要: SpectralKrum: A Spectral-Geometric Defense Against Byzantine Attacks in Federated Learning
- arxiv url: http://arxiv.org/abs/2512.11760v1
- Date: Fri, 12 Dec 2025 18:12:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-15 15:48:11.865872
- Title: SpectralKrum: A Spectral-Geometric Defense Against Byzantine Attacks in Federated Learning
- Title(参考訳): SpectralKrum:フェデレートラーニングにおけるビザンチン攻撃に対する分光幾何学的防御
- Authors: Aditya Tripathi, Karan Sharma, Rahul Mishra, Tapas Kumar Maiti,
- Abstract要約: Federated Learning (FL)は、データをローカルに保持するクライアントにモデルトレーニングを配布する。
本稿では、幾何学的近傍選択とスペクトル部分空間推定を融合させる防衛法であるSpectralKrumを紹介する。
5万6000回の訓練ラウンドにまたがる実験は、SpectralKrumが指向性およびサブスペース認識攻撃と競合していることを示している。
- 参考スコア(独自算出の注目度): 2.512941835598642
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) distributes model training across clients who retain their data locally, but this architecture exposes a fundamental vulnerability: Byzantine clients can inject arbitrarily corrupted updates that degrade or subvert the global model. While robust aggregation methods (including Krum, Bulyan, and coordinate-wise defenses) offer theoretical guarantees under idealized assumptions, their effectiveness erodes substantially when client data distributions are heterogeneous (non-IID) and adversaries can observe or approximate the defense mechanism. This paper introduces SpectralKrum, a defense that fuses spectral subspace estimation with geometric neighbor-based selection. The core insight is that benign optimization trajectories, despite per-client heterogeneity, concentrate near a low-dimensional manifold that can be estimated from historical aggregates. SpectralKrum projects incoming updates into this learned subspace, applies Krum selection in compressed coordinates, and filters candidates whose orthogonal residual energy exceeds a data-driven threshold. The method requires no auxiliary data, operates entirely on model updates, and preserves FL privacy properties. We evaluate SpectralKrum against eight robust baselines across seven attack scenarios on CIFAR-10 with Dirichlet-distributed non-IID partitions (alpha = 0.1). Experiments spanning over 56,000 training rounds show that SpectralKrum is competitive against directional and subspace-aware attacks (adaptive-steer, buffer-drift), but offers limited advantage under label-flip and min-max attacks where malicious updates remain spectrally indistinguishable from benign ones.
- Abstract(参考訳): フェデレートラーニング(FL)は、データをローカルに保持するクライアントにモデルをトレーニングするが、このアーキテクチャは根本的な脆弱性を露呈する。
Krum, Bulyan, and coordinate-wise Defensesを含むロバストな集約手法は、理想的な仮定の下で理論的な保証を提供するが、クライアントデータ分布が不均一(非IID)であり、敵が防御機構を観察または近似できる場合、その効果は著しく損なわれる。
本稿では、幾何学的近傍選択とスペクトル部分空間推定を融合させる防衛法であるSpectralKrumを紹介する。
中心的な洞察は、従属的不均一性にもかかわらず、良性最適化軌跡は歴史的集合から推定できる低次元多様体の近くに集中しているということである。
SpectralKrumは、この学習された部分空間への更新を計画し、圧縮された座標にクルムの選択を適用し、直交残留エネルギーがデータ駆動しきい値を超える候補をフィルタリングする。
この方法は補助的なデータを必要としず、完全にモデル更新で動作し、FLプライバシ特性を保存する。
我々は,ディリクレ分散非IIDパーティション(alpha = 0.1)を用いて,CIFAR-10攻撃シナリオの8つのロバストベースラインに対してSpectralKrumを評価した。
56,000以上のトレーニングラウンドにまたがる実験によると、SpectralKrumは指向性とサブスペース対応の攻撃(アダプティブステア、バッファドリフト)と競合するが、悪意のある更新がスペクトル的に区別できないようなラベルフリップやmin-max攻撃では、アドバンテージが制限されている。
関連論文リスト
- Adaptive Defense against Harmful Fine-Tuning for Large Language Models via Bayesian Data Scheduler [67.24175911858312]
有害な微調整は、大規模な言語モデルのための微調整・アズ・ア・サービスに重大な安全性のリスクをもたらす。
Bayesian Data Scheduler (BDS) は、アタックシミュレーションを必要としない適応型チューニングステージ防衛戦略である。
BDSは、微調整データセットとアライメントデータセットに基づいて、各データポイントの安全属性の後方分布を学習する。
論文 参考訳(メタデータ) (2025-10-31T04:49:37Z) - A Vision-Language Pre-training Model-Guided Approach for Mitigating Backdoor Attacks in Federated Learning [43.847168319564844]
視覚言語事前学習モデルのゼロショット学習機能を利用したFLバックドアディフェンスフレームワークCLIP-Fedを提案する。
本計画では, 防衛効果に課される非IIDの限界を克服し, 事前集約・後防衛戦略を統合する。
論文 参考訳(メタデータ) (2025-08-14T03:39:54Z) - FedGraM: Defending Against Untargeted Attacks in Federated Learning via Embedding Gram Matrix [8.745475105649192]
Federated Learning (FL)は、地理的に分散したクライアントが、ローカルモデルのみを共有することで、機械学習モデルを協調的にトレーニングすることを可能にする。
FLは、基盤となるデータ分散上でのグローバルモデルのパフォーマンスを低下させることを目的とした、未ターゲットの攻撃に対して脆弱である。
FLにおける未標的攻撃に対する防御を目的とした,新たなロバストアグリゲーション手法であるFedGraMを提案する。
論文 参考訳(メタデータ) (2025-05-20T07:26:54Z) - Interaction-Aware Gaussian Weighting for Clustered Federated Learning [58.92159838586751]
フェデレートラーニング(FL)は、プライバシを維持しながらモデルをトレーニングするための分散パラダイムとして登場した。
本稿では,新たなクラスタリングFL法であるFedGWC(Federated Gaussian Weighting Clustering)を提案する。
ベンチマークデータセットを用いた実験により,FedGWCはクラスタの品質と分類精度において,既存のFLアルゴリズムよりも優れていることがわかった。
論文 参考訳(メタデータ) (2025-02-05T16:33:36Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - FedCC: Robust Federated Learning against Model Poisoning Attacks [0.0]
フェデレートラーニング(Federated Learning)は、プライバシの問題に対処するために設計された分散フレームワークである。
新たなアタックサーフェスを導入しており、データは独立に、そしてIdentically Distributedである場合、特に困難である。
我々は,モデル中毒に対する簡易かつ効果的な新しい防御アルゴリズムであるFedCCを提案する。
論文 参考訳(メタデータ) (2022-12-05T01:52:32Z) - CC-Cert: A Probabilistic Approach to Certify General Robustness of
Neural Networks [58.29502185344086]
安全クリティカルな機械学習アプリケーションでは、モデルを敵の攻撃から守ることが不可欠である。
意味的に意味のある入力変換に対して、ディープラーニングモデルの証明可能な保証を提供することが重要である。
我々はChernoff-Cramer境界に基づく新しい普遍確率的証明手法を提案する。
論文 参考訳(メタデータ) (2021-09-22T12:46:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。