論文の概要: Hammer and Anvil: A Principled Defense Against Backdoors in Federated Learning
- arxiv url: http://arxiv.org/abs/2509.08089v1
- Date: Tue, 09 Sep 2025 18:54:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-11 15:16:52.229198
- Title: Hammer and Anvil: A Principled Defense Against Backdoors in Federated Learning
- Title(参考訳): Hammer and Anvil: フェデレートラーニングにおけるバックドアに対する原則的な防御
- Authors: Lucas Fenaux, Zheng Wang, Jacob Yan, Nathan Chung, Florian Kerschbaum,
- Abstract要約: フェデレートラーニング(Federated Learning)は、複数のクライアントが協力して機械学習モデルをトレーニングする分散ラーニング技術である。
本研究では,まず,既存の敵の能力を超える適応的敵を考案する。
そして、基本原理に2つの防御を組み合わせた、原則化された防衛アプローチであるハマーとアンビルを提示する。
- 参考スコア(独自算出の注目度): 19.849567299082306
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning is a distributed learning technique in which multiple clients cooperate to train a machine learning model. Distributed settings facilitate backdoor attacks by malicious clients, who can embed malicious behaviors into the model during their participation in the training process. These malicious behaviors are activated during inference by a specific trigger. No defense against backdoor attacks has stood the test of time, especially against adaptive attackers, a powerful but not fully explored category of attackers. In this work, we first devise a new adaptive adversary that surpasses existing adversaries in capabilities, yielding attacks that only require one or two malicious clients out of 20 to break existing state-of-the-art defenses. Then, we present Hammer and Anvil, a principled defense approach that combines two defenses orthogonal in their underlying principle to produce a combined defense that, given the right set of parameters, must succeed against any attack. We show that our best combined defense, Krum+, is successful against our new adaptive adversary and state-of-the-art attacks.
- Abstract(参考訳): フェデレートラーニング(Federated Learning)は、複数のクライアントが協力して機械学習モデルをトレーニングする分散ラーニング技術である。
分散設定は悪意のあるクライアントによるバックドア攻撃を促進し、トレーニングプロセスに参加する間、悪意のある振る舞いをモデルに埋め込むことができる。
これらの悪意のある振る舞いは、特定のトリガーによって推論中に活性化される。
バックドア攻撃に対する防御は、特にアダプティブ・アタッカーに対するテストには耐えられていない。
この研究で我々は、既存の敵の能力を上回る新しい適応的敵を考案し、20人中1人か2人の悪意のあるクライアントしか必要としない攻撃を発生させ、既存の最先端の防御を破る。
続いて、ハマーとアンビルは、2つの防御を基本原理に直交して、適切なパラメータセットを与えられた場合、いかなる攻撃に対しても成功しなくてはならない、という2つの防御方法を提示する。
我々は、我々の最良の組み合わせであるKrum+が、我々の新しい適応的敵と最先端の攻撃に対して成功していることを示す。
関連論文リスト
- Chasing Moving Targets with Online Self-Play Reinforcement Learning for Safer Language Models [55.28518567702213]
従来の言語モデル(LM)の安全性アライメントは、リアクティブで非結合な手順に依存している。
このシーケンシャルなアプローチはミスマッチを生み出し、攻撃者は時代遅れの防御に過度に適合する一方、守備側は出現する脅威に常に遅れをとどめている。
我々は,攻撃者と防御エージェントが継続的なインタラクションを通じて共進化するオンラインセルフプレイ強化学習アルゴリズムであるSelf-RedTeamを提案する。
論文 参考訳(メタデータ) (2025-06-09T06:35:12Z) - Client-Side Patching against Backdoor Attacks in Federated Learning [0.0]
フェデレーション学習は、悪意のある参加者によって起動されるバックドア攻撃に対して脆弱である。
本稿では,クライアント側のバックドア攻撃を緩和するフェデレーション学習システムのための新しい防御機構を提案する。
我々のアプローチは、バックドア攻撃の影響を和らげるために、敵対的学習技術とモデルパッチを利用する。
論文 参考訳(メタデータ) (2024-12-13T23:17:10Z) - On the Difficulty of Defending Contrastive Learning against Backdoor
Attacks [58.824074124014224]
バックドア攻撃が、特有のメカニズムによってどのように動作するかを示す。
本研究は, 対照的なバックドア攻撃の特異性に合わせて, 防御の必要性を浮き彫りにした。
論文 参考訳(メタデータ) (2023-12-14T15:54:52Z) - BadCLIP: Dual-Embedding Guided Backdoor Attack on Multimodal Contrastive
Learning [85.2564206440109]
本報告では,防衛後においてもバックドア攻撃が有効であり続けるという現実的なシナリオにおける脅威を明らかにする。
バックドア検出や細調整防御のモデル化に抵抗性のあるemphtoolnsアタックを導入する。
論文 参考訳(メタデータ) (2023-11-20T02:21:49Z) - Learning to Backdoor Federated Learning [9.046972927978997]
FL(Federated Learning)システムでは、悪意のある参加者がバックドアを集約されたモデルに簡単に埋め込むことができる。
一般的な強化学習に基づくバックドアアタックフレームワークを提案する。
我々のフレームワークは適応性と柔軟性があり、最先端の防御の下でも強力な攻撃性能と耐久性を実現する。
論文 参考訳(メタデータ) (2023-03-06T17:47:04Z) - Certified Federated Adversarial Training [3.474871319204387]
我々は、労働者のクォーラムが完全に悪意のある場合、FLシステムに敵の訓練を施すシナリオに取り組む。
我々は、モデルに毒を盛ったアタッカーをモデル化し、そのモデルが明らかに敵の堅牢性を示すように、敵の訓練に弱点を挿入する。
この防御は、アダプティブアタックに対してさえも、敵の堅牢性を維持することができることを示す。
論文 参考訳(メタデータ) (2021-12-20T13:40:20Z) - Widen The Backdoor To Let More Attackers In [24.540853975732922]
マルチエージェントバックドア攻撃のシナリオについて検討し、複数の非衝突攻撃者が共有データセットにトリガサンプルを挿入する。
攻撃者数の増加は攻撃者の攻撃成功率を減少させる。
そして、この現象を利用して攻撃者の集合的ASRを最小化し、防御者の堅牢性を最大化する。
論文 参考訳(メタデータ) (2021-10-09T13:53:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。