論文の概要: Backdoor Attacks in Peer-to-Peer Federated Learning
- arxiv url: http://arxiv.org/abs/2301.09732v1
- Date: Mon, 23 Jan 2023 21:49:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-25 14:47:01.809213
- Title: Backdoor Attacks in Peer-to-Peer Federated Learning
- Title(参考訳): ピアツーピアフェデレーション学習におけるバックドアアタック
- Authors: Gokberk Yar, Cristina Nita-Rotaru, Alina Oprea
- Abstract要約: グラフトポロジとデータセットを用いたピアツーピア・フェデレーション学習システムにおけるバックドア攻撃について検討した。
クリーンデータの精度を2%以上下げることなく,攻撃成功率42%のバックドア攻撃を行うには,攻撃ノードは5%に過ぎなかった。
本稿では,ノードによって訓練されたピアやローカルモデルから受信したモデル更新に対して,異なるクリッピング規範を適用して攻撃を緩和する防衛法を提案する。
- 参考スコア(独自算出の注目度): 15.306470571521066
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: We study backdoor attacks in peer-to-peer federated learning systems on
different graph topologies and datasets. We show that only 5% attacker nodes
are sufficient to perform a backdoor attack with 42% attack success without
decreasing the accuracy on clean data by more than 2%. We also demonstrate that
the attack can be amplified by the attacker crashing a small number of nodes.
We evaluate defenses proposed in the context of centralized federated learning
and show they are ineffective in peer-to-peer settings. Finally, we propose a
defense that mitigates the attacks by applying different clipping norms to the
model updates received from peers and local model trained by a node.
- Abstract(参考訳): 異なるグラフトポロジとデータセット上でのピアツーピア連合学習システムにおけるバックドア攻撃について検討する。
その結果,クリーンデータの精度を2%以上低下させることなく,攻撃成功率42%のバックドア攻撃を行うのに十分な攻撃ノードは5%に過ぎなかった。
また,攻撃者が少数のノードをクラッシュさせて攻撃を増幅できることを実証する。
我々は,集中型フェデレーション学習の文脈で提案した防衛効果を評価し,ピアツーピア環境では効果がないことを示す。
最後に、ノードによって訓練されたピアやローカルモデルから受信したモデル更新に対して、異なるクリッピング規範を適用して攻撃を緩和する防御法を提案する。
関連論文リスト
- BadSFL: Backdoor Attack against Scaffold Federated Learning [16.104941796138128]
フェデレートラーニング(FL)は、分散クライアント上のディープラーニングモデルのトレーニングにより、データのプライバシを保護します。
BadSFLは、非IID環境での足場集約アルゴリズムを用いて、FLフレームワーク用に設計された新しいバックドアアタック手法である。
BadSFLは、グローバルモデルで60ラウンド以上有効であり、既存のベースライン攻撃の最大3倍の長さである。
論文 参考訳(メタデータ) (2024-11-25T07:46:57Z) - Celtibero: Robust Layered Aggregation for Federated Learning [0.0]
Celtiberoは, 対向操作に対する強靭性を高めるため, 層状アグリゲーションを統合した新しい防御機構である。
セルティベロは、標的外および標的標的の毒殺攻撃において、最小攻撃成功率(ASR)を維持しつつ、常に高い主タスク精度(MTA)を達成することを実証した。
論文 参考訳(メタデータ) (2024-08-26T12:54:00Z) - Lurking in the shadows: Unveiling Stealthy Backdoor Attacks against Personalized Federated Learning [31.386836775526685]
PFLシステムに適用可能なステルスで効果的なバックドア攻撃戦略である textitPFedBA を提案する。
我々の研究は、PFLシステムに対する微妙ながら強力なバックドアの脅威に光を当て、新たなバックドアの課題に対する防衛を強化するようコミュニティに促している。
論文 参考訳(メタデータ) (2024-06-10T12:14:05Z) - Towards Attack-tolerant Federated Learning via Critical Parameter
Analysis [85.41873993551332]
フェデレートされた学習システムは、悪意のあるクライアントが中央サーバーに誤ったアップデートを送信すると、攻撃を害するおそれがある。
本稿では,新たな防衛戦略であるFedCPA(Federated Learning with critical Analysis)を提案する。
攻撃耐性凝集法は, 有害局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒であるのに対し, 類似したトップkおよびボトムk臨界パラメータを持つ。
論文 参考訳(メタデータ) (2023-08-18T05:37:55Z) - FedDefender: Client-Side Attack-Tolerant Federated Learning [60.576073964874]
フェデレーション学習は、プライバシを損なうことなく、分散化されたデータソースからの学習を可能にする。
悪意のあるクライアントがトレーニングプロセスに干渉する、毒殺攻撃のモデル化には脆弱である。
我々はFedDefenderと呼ばれるクライアントサイドに焦点を当てた新しい防御機構を提案し、クライアントの堅牢なローカルモデルのトレーニングを支援する。
論文 参考訳(メタデータ) (2023-07-18T08:00:41Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - CrowdGuard: Federated Backdoor Detection in Federated Learning [39.58317527488534]
本稿では,フェデレートラーニングにおけるバックドア攻撃を効果的に軽減する新しい防御機構であるCrowdGuardを提案する。
CrowdGuardでは、サーバロケーションのスタック化されたクラスタリングスキームを使用して、クライアントからのフィードバックに対するレジリエンスを高めている。
評価結果は、CrowdGuardがさまざまなシナリオで100%正の正の正の正の負の負の負の値を達成することを示す。
論文 参考訳(メタデータ) (2022-10-14T11:27:49Z) - RoFL: Attestable Robustness for Secure Federated Learning [59.63865074749391]
フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
論文 参考訳(メタデータ) (2021-07-07T15:42:49Z) - CRFL: Certifiably Robust Federated Learning against Backdoor Attacks [59.61565692464579]
本稿では,第1の汎用フレームワークであるCertifiably Robust Federated Learning (CRFL) を用いて,バックドアに対する堅牢なFLモデルをトレーニングする。
提案手法は, モデルパラメータのクリッピングと平滑化を利用して大域的モデル平滑化を制御する。
論文 参考訳(メタデータ) (2021-06-15T16:50:54Z) - Dynamic backdoor attacks against federated learning [0.5482532589225553]
Federated Learning(FL)は、データプライバシとセキュリティを損なうことなく、何百万人もの参加者が協力してモデルをトレーニングできる、新しい機械学習フレームワークである。
本稿では、FL設定下での動的バックドア攻撃に着目し、敵の目標は、ターゲットタスクにおけるモデルの性能を低下させることである。
我々の知る限りでは、FL設定下での動的バックドア攻撃の研究に焦点を当てた最初の論文である。
論文 参考訳(メタデータ) (2020-11-15T01:32:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。