論文の概要: Analyzing the Impact of Partial Sharing on the Resilience of Online Federated Learning Against Model Poisoning Attacks
- arxiv url: http://arxiv.org/abs/2403.13108v1
- Date: Tue, 19 Mar 2024 19:15:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-21 18:47:08.649124
- Title: Analyzing the Impact of Partial Sharing on the Resilience of Online Federated Learning Against Model Poisoning Attacks
- Title(参考訳): 部分的共有がオンラインフェデレーション学習のモデル攻撃に対するレジリエンスに及ぼす影響の分析
- Authors: Ehsan Lari, Vinay Chakravarthi Gogineni, Reza Arablouei, Stefan Werner,
- Abstract要約: 我々は,部分共有型オンラインフェデレーション学習(PSO-Fed)アルゴリズムのモデルポゾン攻撃に対するレジリエンスを精査する。
PSO-Fedは、クライアントが各更新ラウンドでサーバとモデル見積のごく一部しか交換できないようにすることで、通信負荷を低減する。
そこで本研究では,PSO-Fedのモデルポゾン攻撃に直面する場合,PSO-Fedには非自明なステップサイズが存在することを示す。
- 参考スコア(独自算出の注目度): 6.957420925496431
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We scrutinize the resilience of the partial-sharing online federated learning (PSO-Fed) algorithm against model-poisoning attacks. PSO-Fed reduces the communication load by enabling clients to exchange only a fraction of their model estimates with the server at each update round. Partial sharing of model estimates also enhances the robustness of the algorithm against model-poisoning attacks. To gain better insights into this phenomenon, we analyze the performance of the PSO-Fed algorithm in the presence of Byzantine clients, malicious actors who may subtly tamper with their local models by adding noise before sharing them with the server. Through our analysis, we demonstrate that PSO-Fed maintains convergence in both mean and mean-square senses, even under the strain of model-poisoning attacks. We further derive the theoretical mean square error (MSE) of PSO-Fed, linking it to various parameters such as stepsize, attack probability, number of Byzantine clients, client participation rate, partial-sharing ratio, and noise variance. We also show that there is a non-trivial optimal stepsize for PSO-Fed when faced with model-poisoning attacks. The results of our extensive numerical experiments affirm our theoretical assertions and highlight the superior ability of PSO-Fed to counteract Byzantine attacks, outperforming other related leading algorithms.
- Abstract(参考訳): 我々は,部分共有型オンラインフェデレーション学習(PSO-Fed)アルゴリズムのモデルポゾン攻撃に対するレジリエンスを精査する。
PSO-Fedは、クライアントが各更新ラウンドでサーバとモデル見積のごく一部しか交換できないようにすることで、通信負荷を低減する。
モデル推定の部分的な共有はまた、モデル中毒攻撃に対するアルゴリズムの堅牢性を高める。
この現象についてより深い知見を得るため,バイザンティンのクライアントの存在下でPSO-Fedアルゴリズムの性能を解析した。
解析により, PSO-Fed は平均および平均2乗感覚の収束を保ち, モデルポゾン攻撃のひずみ下においても維持することを示した。
さらに、PSO-Fedの理論的平均二乗誤差(MSE)を導出し、ステップサイズ、アタック確率、ビザンティンクライアント数、クライアント参加率、部分共有比、ノイズ分散などのパラメータにリンクする。
また, PSO-Fed は, PSO-Fed に対して, モデルポゾン攻撃に直面する場合のステップサイズが非自明であることを示す。
我々の大規模な数値実験の結果は、我々の理論的な主張を裏付け、PSO-Fedがビザンツ攻撃に対処する優れた能力を強調し、他の関連するアルゴリズムよりも優れています。
関連論文リスト
- Aggressive or Imperceptible, or Both: Network Pruning Assisted Hybrid Byzantines in Federated Learning [6.384138583754105]
フェデレートラーニング(FL)は、多種多様なクライアント(おそらくモバイルデバイス)が、一般化された機械学習モデルの生成に協力できるようにするために導入された。
多数のクライアントが参加しているため、各クライアントのプロファイルと検証が難しい場合が多いため、セキュリティ上の脅威が発生します。
本研究では,より高感度のNN位置のみを攻撃し,さらに時間とともに蓄積するハイブリッド・スパルス・ビザンチン攻撃を導入する。
論文 参考訳(メタデータ) (2024-04-09T11:42:32Z) - G$^2$uardFL: Safeguarding Federated Learning Against Backdoor Attacks
through Attributed Client Graph Clustering [116.4277292854053]
Federated Learning (FL)は、データ共有なしで協調的なモデルトレーニングを提供する。
FLはバックドア攻撃に弱いため、有害なモデル重みがシステムの整合性を損なう。
本稿では、悪意のあるクライアントの識別を属性グラフクラスタリング問題として再解釈する保護フレームワークであるG$2$uardFLを提案する。
論文 参考訳(メタデータ) (2023-06-08T07:15:04Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - Robust Quantity-Aware Aggregation for Federated Learning [72.59915691824624]
悪意のあるクライアントは、モデル更新を害し、モデルアグリゲーションにおけるモデル更新の影響を増幅するために大量の要求を行う。
FLの既存の防御メソッドは、悪意のあるモデル更新を処理する一方で、すべての量の良性を扱うか、単にすべてのクライアントの量を無視/停止するだけである。
本稿では,フェデレーション学習のためのロバストな量認識アグリゲーションアルゴリズムであるFedRAを提案し,局所的なデータ量を認識してアグリゲーションを行う。
論文 参考訳(メタデータ) (2022-05-22T15:13:23Z) - Federated Multi-Armed Bandits Under Byzantine Attacks [13.170519806372075]
本研究では, 偽モデル更新を送信可能なビザンティンクライアントの存在下で, FMAB問題について検討する。
我々は、ビザンツの顧客に対応するために、中央値平均推定器であるFed-MoM-UCBを提案する。
我々は,アルゴリズムパラメータ間の相互作用,回避不能なエラーマージン,後悔,通信コスト,アームの準最適差を分析した。
論文 参考訳(メタデータ) (2022-05-09T09:06:42Z) - From Environmental Sound Representation to Robustness of 2D CNN Models
Against Adversarial Attacks [82.21746840893658]
本稿では, 各種環境音響表現(スペクトログラム)が, 被害者残差畳み込みニューラルネットワークの認識性能と対角攻撃性に与える影響について検討する。
DWTスペクトログラムでトレーニングしたResNet-18モデルでは高い認識精度が得られたが、このモデルに対する攻撃は敵にとって比較的コストがかかる。
論文 参考訳(メタデータ) (2022-04-14T15:14:08Z) - Pruning in the Face of Adversaries [0.0]
ニューラルネットワークのプルーニングがL-0,L-2,L-infinity攻撃に対する対向的ロバスト性に及ぼす影響を評価する。
その結果,ニューラルネットワークのプルーニングと対向ロバスト性は相互に排他的ではないことが確認された。
分析を敵のシナリオに付加的な仮定を取り入れた状況にまで拡張し、状況によって異なる戦略が最適であることを示す。
論文 参考訳(メタデータ) (2021-08-19T09:06:16Z) - Policy Smoothing for Provably Robust Reinforcement Learning [109.90239627115336]
入力のノルム有界対向摂動に対する強化学習の証明可能な堅牢性について検討する。
我々は、スムーズなポリシーによって得られる全報酬が、入力の摂動のノルムバウンドな逆数の下で一定の閾値以下に収まらないことを保証した証明書を生成する。
論文 参考訳(メタデータ) (2021-06-21T21:42:08Z) - Federated Learning with Unreliable Clients: Performance Analysis and
Mechanism Design [76.29738151117583]
Federated Learning(FL)は、分散クライアント間で効果的な機械学習モデルをトレーニングするための有望なツールとなっている。
しかし、低品質のモデルは信頼性の低いクライアントによってアグリゲータサーバにアップロードすることができ、劣化やトレーニングの崩壊につながる。
クライアントの信頼できない振る舞いをモデル化し、このようなセキュリティリスクを軽減するための防御メカニズムを提案する。
論文 参考訳(メタデータ) (2021-05-10T08:02:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。