論文の概要: SketchGuard: Scaling Byzantine-Robust Decentralized Federated Learning via Sketch-Based Screening
- arxiv url: http://arxiv.org/abs/2510.07922v1
- Date: Thu, 09 Oct 2025 08:16:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-10 17:54:14.951169
- Title: SketchGuard: Scaling Byzantine-Robust Decentralized Federated Learning via Sketch-Based Screening
- Title(参考訳): SketchGuard: Sketchベースのスクリーニングによるビザンチン・ロバスト分散学習のスケールアップ
- Authors: Murtaza Rangwala, Farag Azzedin, Richard O. Sinnott, Rajkumar Buyya,
- Abstract要約: Decentralized Federated Learning (DFL)は、集中型サーバを使わずに、プライバシ保護による協調トレーニングを可能にする。
DFLは、悪意のあるクライアントが破損したモデルを更新するビザンティン攻撃に対して脆弱である。
スケッチベースの隣人スクリーニングによるモデルアグリゲーションからビザンチンフィルタを分離するSketchGuardを提案する。
- 参考スコア(独自算出の注目度): 15.287835378843425
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Decentralized Federated Learning (DFL) enables privacy-preserving collaborative training without centralized servers, but remains vulnerable to Byzantine attacks where malicious clients submit corrupted model updates. Existing Byzantine-robust DFL defenses rely on similarity-based neighbor screening that requires every client to exchange and compare complete high-dimensional model vectors with all neighbors in each training round, creating prohibitive communication and computational costs that prevent deployment at web scale. We propose SketchGuard, a general framework that decouples Byzantine filtering from model aggregation through sketch-based neighbor screening. SketchGuard compresses $d$-dimensional models to $k$-dimensional sketches ($k \ll d$) using Count Sketch for similarity comparisons, then selectively fetches full models only from accepted neighbors, reducing per-round communication complexity from $O(d|N_i|)$ to $O(k|N_i| + d|S_i|)$, where $|N_i|$ is the neighbor count and $|S_i| \le |N_i|$ is the accepted neighbor count. We establish rigorous convergence guarantees in both strongly convex and non-convex settings, proving that Count Sketch compression preserves Byzantine resilience with controlled degradation bounds where approximation errors introduce only a $(1+O(\epsilon))$ factor in the effective threshold parameter. Comprehensive experiments across multiple datasets, network topologies, and attack scenarios demonstrate that SketchGuard maintains identical robustness to state-of-the-art methods while reducing computation time by up to 82% and communication overhead by 50-70% depending on filtering effectiveness, with benefits scaling multiplicatively with model dimensionality and network connectivity. These results establish the viability of sketch-based compression as a fundamental enabler of robust DFL at web scale.
- Abstract(参考訳): Decentralized Federated Learning (DFL)は、集中型サーバを使わずに、プライバシ保護による協調トレーニングを可能にする。
既存のByzantine-robust DFLディフェンスは類似性に基づく隣人スクリーニングに依存しており、すべてのクライアントがトレーニングラウンドのすべての隣人と完全な高次元モデルベクトルを交換し比較する必要がある。
スケッチガード(SketchGuard)は、Byzantineフィルタをスケッチベースの隣人スクリーニングによってモデル集約から切り離す一般的なフレームワークである。
SketchGuardは、類似性比較のためにCount Sketchを使用して$d$-dimensionalモデルから$k$-dimensionalスケッチ($k \ll d$)に圧縮し、次に、受理された隣人のみから完全なモデルを選択的にフェッチし、丸ごとの通信複雑性を$O(d|N_i|)$から$O(k|N_i| + d|S_i|)$に減らし、$|N_i|$は隣人数、$|S_i| \le |N_i|$は受理された隣人数に減らした。
我々は、強い凸と非凸の両方の設定において厳密な収束保証を確立し、スケッチ圧縮は、近似誤差が有効閾値パラメータの1+O(\epsilon)$因子しか導入しないような制御された劣化境界を持つビザンチンレジリエンスを保っていることを証明した。
複数のデータセット、ネットワークトポロジ、アタックシナリオにわたる総合的な実験は、SketchGuardが最先端のメソッドと同一の堅牢性を保ちながら、フィルタリングの有効性に応じて計算時間を最大82%削減し、通信オーバーヘッドを50~70%削減し、モデルの次元とネットワーク接続性に乗じてスケーリングする利点を実証している。
これらの結果は、Webスケールでの堅牢なDFLの基本的な実現手段として、スケッチベースの圧縮が実現可能であることを証明している。
関連論文リスト
- Efficient Byzantine-Robust Privacy-Preserving Federated Learning via Dimension Compression [30.440611659881494]
フェデレートラーニング(FL)は、生データを共有せずに分散クライアント間で協調的なモデルトレーニングを可能にし、プライバシーを保護します。
既存のソリューションは、プライバシー保護、ビザンチンの堅牢性、計算効率において重要なトレードオフに直面している。
そこで本研究では,ジョンソン-リンデンシュトラウス変換に基づいて,同相暗号と次元圧縮を統合する新しい手法を提案する。
論文 参考訳(メタデータ) (2025-09-15T12:43:58Z) - Certifiably Robust Model Evaluation in Federated Learning under Meta-Distributional Shifts [8.700087812420687]
異なるネットワーク "B" 上でモデルの性能を保証する。
我々は、原則付きバニラDKWバウンダリが、同じ(ソース)ネットワーク内の未確認クライアント上で、モデルの真のパフォーマンスの認証を可能にする方法を示す。
論文 参考訳(メタデータ) (2024-10-26T18:45:15Z) - Decentralized Sporadic Federated Learning: A Unified Algorithmic Framework with Convergence Guarantees [18.24213566328972]
分散学習計算(DFL)は、(i)モデル更新と(ii)モデルアグリゲーションの両方が中央サーバなしでクライアントによって実行されるFL設定をキャプチャする。
$textttDSpodFL$は、ローカルグラデーションとアグリゲーションプロセスの両方において、$textitsporadicity$という一般的な概念に基づいて構築されたDFL方法論である。
$textttDSpodFL$は、さまざまなシステム設定のベースラインと比較して、改善されたスピードを一貫して達成する。
論文 参考訳(メタデータ) (2024-02-05T19:02:19Z) - Expressive Losses for Verified Robustness via Convex Combinations [67.54357965665676]
本研究では, 過近似係数と異なる表現的損失に対する性能分布の関係について検討した。
表現性が不可欠である一方で、最悪の場合の損失のより良い近似は、必ずしも優れた堅牢性-正確性トレードオフに結びついていないことを示す。
論文 参考訳(メタデータ) (2023-05-23T12:20:29Z) - CrowdGuard: Federated Backdoor Detection in Federated Learning [39.58317527488534]
本稿では,フェデレートラーニングにおけるバックドア攻撃を効果的に軽減する新しい防御機構であるCrowdGuardを提案する。
CrowdGuardでは、サーバロケーションのスタック化されたクラスタリングスキームを使用して、クライアントからのフィードバックに対するレジリエンスを高めている。
評価結果は、CrowdGuardがさまざまなシナリオで100%正の正の正の正の負の負の負の値を達成することを示す。
論文 参考訳(メタデータ) (2022-10-14T11:27:49Z) - Adversarial robustness against multiple $l_p$-threat models at the price
of one and how to quickly fine-tune robust models to another threat model [79.05253587566197]
対向的堅牢性を実現するために, 対向的トレーニング (AT) を単一$l_p$-threatモデルで行うことが広く議論されている。
本稿では,$l_p$-threatモデルの結合に対する対角的ロバスト性を実現するための,シンプルで効率的なトレーニング手法を開発する。
論文 参考訳(メタデータ) (2021-05-26T12:20:47Z) - Blockchain Assisted Decentralized Federated Learning (BLADE-FL) with
Lazy Clients [124.48732110742623]
フェデレートラーニング(FL)にブロックチェーンを統合する新しいフレームワークを提案する。
BLADE-FLは、プライバシー保護、改ざん抵抗、学習の効果的な協力の点で優れたパフォーマンスを持っている。
遅延クライアントは、他人のトレーニングされたモデルを盗聴し、不正行為を隠すために人工的なノイズを加える。
論文 参考訳(メタデータ) (2020-12-02T12:18:27Z) - Toward Adversarial Robustness via Semi-supervised Robust Training [93.36310070269643]
アドリラルな例は、ディープニューラルネットワーク(DNN)に対する深刻な脅威であることが示されている。
R_stand$ と $R_rob$ の2つの異なるリスクを共同で最小化することで、新しい防御手法であるロバストトレーニング(RT)を提案する。
論文 参考訳(メタデータ) (2020-03-16T02:14:08Z) - Black-Box Certification with Randomized Smoothing: A Functional
Optimization Based Framework [60.981406394238434]
本稿では,非ガウス雑音とより一般的な攻撃に対する対向的認証の一般的な枠組みを提案する。
提案手法は,従来の手法よりも優れた認証結果を得るとともに,ランダム化スムーズな認証の新たな視点を提供する。
論文 参考訳(メタデータ) (2020-02-21T07:52:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。