論文の概要: FedCut: A Spectral Analysis Framework for Reliable Detection of
Byzantine Colluders
- arxiv url: http://arxiv.org/abs/2211.13389v1
- Date: Thu, 24 Nov 2022 02:57:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-28 17:58:24.913132
- Title: FedCut: A Spectral Analysis Framework for Reliable Detection of
Byzantine Colluders
- Title(参考訳): FedCut: ビザンチンコローダの信頼性検出のためのスペクトル分析フレームワーク
- Authors: Hanlin Gu, Lixin Fan, Xingxing Tang, Qiang Yang
- Abstract要約: 提案するフレームワークは、スペクトル分析レンズからのビザンチンコラウダーのモデル更新間の強い一貫性と時間的コヒーレンスを示す。
修正された正規化グラフカットは、良心的参加者から攻撃者を識別するために使用される。
提案したByzantine colluder resilient method、すなわちFedCutは有界誤差に収束することが保証されている。
- 参考スコア(独自算出の注目度): 13.061425754353387
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper proposes a general spectral analysis framework that thwarts a
security risk in federated Learning caused by groups of malicious Byzantine
attackers or colluders, who conspire to upload vicious model updates to
severely debase global model performances. The proposed framework delineates
the strong consistency and temporal coherence between Byzantine colluders'
model updates from a spectral analysis lens, and, formulates the detection of
Byzantine misbehaviours as a community detection problem in weighted graphs.
The modified normalized graph cut is then utilized to discern attackers from
benign participants. Moreover, the Spectral heuristics is adopted to make the
detection robust against various attacks. The proposed Byzantine colluder
resilient method, i.e., FedCut, is guaranteed to converge with bounded errors.
Extensive experimental results under a variety of settings justify the
superiority of FedCut, which demonstrates extremely robust model performance
(MP) under various attacks. It was shown that FedCut's averaged MP is 2.1% to
16.5% better than that of the state of the art Byzantine-resilient methods. In
terms of the worst-case model performance (MP), FedCut is 17.6% to 69.5% better
than these methods.
- Abstract(参考訳): 本稿では、悪質なビザンツ人攻撃者や共謀者の集団によるフェデレート学習におけるセキュリティリスクを抑えるための一般的なスペクトル分析フレームワークを提案する。
提案フレームワークは,Byzantine Colludersのモデル更新とスペクトル解析レンズとの強い一貫性と時間的コヒーレンスを規定し,重み付きグラフのコミュニティ検出問題としてByzantine misbehavioursの検出を定式化する。
修正された正規化グラフカットは、攻撃者を良性参加者から識別するために使用される。
さらに、スペクトルヒューリスティックスを用いて、様々な攻撃に対して検出を堅牢にする。
提案したByzantine colluder resilient method、すなわちFedCutは有界誤差に収束することが保証されている。
様々な環境下での大規模な実験結果は、FedCutの優位性を正当化するものであり、様々な攻撃下での極めて堅牢なモデル性能(MP)を示す。
フェデカットの平均mpの2.1%から16.5%は、ビザンチンのレジリエントな手法より優れていることが示されている。
最悪のモデル性能(MP)に関しては、FedCutはこれらの手法よりも17.6%から69.5%良い。
関連論文リスト
- FedRDF: A Robust and Dynamic Aggregation Function against Poisoning
Attacks in Federated Learning [0.0]
Federated Learning(FL)は、集中型機械学習(ML)デプロイメントに関連する典型的なプライバシ問題に対する、有望なアプローチである。
そのよく知られた利点にもかかわらず、FLはビザンツの行動や毒殺攻撃のようなセキュリティ攻撃に弱い。
提案手法は各種モデル毒殺攻撃に対して試験され,最先端の凝集法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-02-15T16:42:04Z) - Frame-to-Utterance Convergence: A Spectra-Temporal Approach for Unified
Spoofing Detection [6.713879688002623]
既存のアンチ・スプーフィング法は、しばしば合成攻撃やリプレイ攻撃のような特定の攻撃タイプをシミュレートする。
現在の統合されたソリューションは、偽造品を検出するのに苦労している。
フレームレベルおよび発話レベル係数を利用したスペクトル時間融合を提案する。
論文 参考訳(メタデータ) (2023-09-18T14:54:42Z) - G$^2$uardFL: Safeguarding Federated Learning Against Backdoor Attacks
through Attributed Client Graph Clustering [116.4277292854053]
Federated Learning (FL)は、データ共有なしで協調的なモデルトレーニングを提供する。
FLはバックドア攻撃に弱いため、有害なモデル重みがシステムの整合性を損なう。
本稿では、悪意のあるクライアントの識別を属性グラフクラスタリング問題として再解釈する保護フレームワークであるG$2$uardFLを提案する。
論文 参考訳(メタデータ) (2023-06-08T07:15:04Z) - In and Out-of-Domain Text Adversarial Robustness via Label Smoothing [64.66809713499576]
多様なNLPタスクの基本モデルにおいて,ラベルの平滑化戦略によって提供される対角的ロバスト性について検討する。
実験の結果,ラベルのスムース化は,BERTなどの事前学習モデルにおいて,様々な攻撃に対して,逆方向の堅牢性を大幅に向上させることがわかった。
また,予測信頼度とロバスト性の関係を解析し,ラベルの平滑化が敵の例に対する過度な信頼誤差を減少させることを示した。
論文 参考訳(メタデータ) (2022-12-20T14:06:50Z) - FedCC: Robust Federated Learning against Model Poisoning Attacks [0.0]
フェデレートラーニング(Federated Learning)は、プライバシー侵害に対する懸念の高まりに対処している。
ローカルデータセットに対するサーバーの盲目は、毒殺攻撃をモデル化する脆弱性を導入している。
FedCCは、Centered Kernel Alignment of Penultimate Layers Representationsを比較することで、堅牢なアグリゲーションを提供する。
論文 参考訳(メタデータ) (2022-12-05T01:52:32Z) - Security-Preserving Federated Learning via Byzantine-Sensitive Triplet
Distance [10.658882342481542]
フェデレートラーニング(FL)は一般的に、敵のエッジデバイスからのビザンチン攻撃に対して脆弱である。
そこで我々は, ダミーコントラストアグリゲーションという, 効果的なビザンチン・ロバストFLフレームワークを提案する。
最新技術であるビザンチン-レジリエントアグリゲーション法と比較して,性能が向上した。
論文 参考訳(メタデータ) (2022-10-29T07:20:02Z) - Detection and Mitigation of Byzantine Attacks in Distributed Training [24.951227624475443]
ワーカノードの異常なビザンチン挙動は、トレーニングを脱線させ、推論の品質を損なう可能性がある。
最近の研究は、幅広い攻撃モデルを検討し、歪んだ勾配を補正するために頑健な集約と/または計算冗長性を探究している。
本研究では、強力な攻撃モデルについて検討する:$q$ omniscient adversaries with full knowledge of the defense protocol that can change from iteration to iteration to weak one: $q$ randomly selected adversaries with limited collusion abilities。
論文 参考訳(メタデータ) (2022-08-17T05:49:52Z) - Certified Adversarial Defenses Meet Out-of-Distribution Corruptions:
Benchmarking Robustness and Simple Baselines [65.0803400763215]
この研究は、最先端のロバストモデルがアウト・オブ・ディストリビューションデータに遭遇した場合、敵のロバスト性がどのように変化を保証しているかを批判的に検証する。
本稿では,トレーニングデータのスペクトルカバレッジを改善するために,新たなデータ拡張方式であるFourierMixを提案する。
また,FourierMixの拡張により,様々なOODベンチマークにおいて,より優れたロバスト性保証を実現することが可能となる。
論文 参考訳(メタデータ) (2021-12-01T17:11:22Z) - Learning from History for Byzantine Robust Optimization [52.68913869776858]
分散学習の重要性から,ビザンチンの堅牢性が近年注目されている。
既存のロバストアグリゲーションルールの多くは、ビザンチンの攻撃者がいなくても収束しない可能性がある。
論文 参考訳(メタデータ) (2020-12-18T16:22:32Z) - Robust Unsupervised Video Anomaly Detection by Multi-Path Frame
Prediction [61.17654438176999]
本稿では,フレーム予測と適切な設計による新規で頑健な非教師付きビデオ異常検出手法を提案する。
提案手法は,CUHK Avenueデータセット上で88.3%のフレームレベルAUROCスコアを得る。
論文 参考訳(メタデータ) (2020-11-05T11:34:12Z) - Federated Variance-Reduced Stochastic Gradient Descent with Robustness
to Byzantine Attacks [74.36161581953658]
本稿では、悪質なビザンツ攻撃が存在する場合のネットワーク上での学習のための分散有限サム最適化について論じる。
このような攻撃に対処するため、これまでのほとんどのレジリエントなアプローチは、勾配降下(SGD)と異なる頑健な集約ルールを組み合わせている。
本研究は,ネットワーク上の有限サム最適化を含むタスクを学習するための,ビザンチン攻撃耐性分散(Byrd-)SAGAアプローチを提案する。
論文 参考訳(メタデータ) (2019-12-29T19:46:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。