論文の概要: Adversarial Robustness Unhardening via Backdoor Attacks in Federated Learning
- arxiv url: http://arxiv.org/abs/2310.11594v3
- Date: Sun, 29 Jun 2025 19:25:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 21:27:53.288478
- Title: Adversarial Robustness Unhardening via Backdoor Attacks in Federated Learning
- Title(参考訳): フェデレーションラーニングにおけるバックドアアタックによる対人ロバストネスの解消
- Authors: Taejin Kim, Jiarui Li, Shubhranshu Singh, Nikhil Madaan, Carlee Joe-Wong,
- Abstract要約: フェデレーション学習は、データを共有することなく、協調モデルのトレーニングを可能にする。
このアプローチはセキュリティ上の問題、特に中毒やバックドア攻撃を引き起こす。
本稿では,敵対的クライアントのサブセットで使用されるARU(Adversarial Robustness Unhardening)を紹介する。
- 参考スコア(独自算出の注目度): 12.232863656375098
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The delicate equilibrium between user privacy and the ability to unleash the potential of distributed data is an important concern. Federated learning, which enables the training of collaborative models without sharing of data, has emerged as a privacy-centric solution. This approach brings forth security challenges, notably poisoning and backdoor attacks where malicious entities inject corrupted data into the training process, as well as evasion attacks that aim to induce misclassifications at test time. Our research investigates the intersection of adversarial training, a common defense method against evasion attacks, and backdoor attacks within federated learning. We introduce Adversarial Robustness Unhardening (ARU), which is employed by a subset of adversarial clients to intentionally undermine model robustness during federated training, rendering models susceptible to a broader range of evasion attacks. We present extensive experiments evaluating ARU's impact on adversarial training and existing robust aggregation defenses against poisoning and backdoor attacks. Our results show that ARU can substantially undermine adversarial training's ability to harden models against test-time evasion attacks, and that adversaries employing ARU can even evade robust aggregation defenses that often neutralize poisoning or backdoor attacks.
- Abstract(参考訳): ユーザのプライバシと分散データの可能性を解き放つ能力の微妙な均衡は、重要な懸念事項である。
データを共有することなくコラボレーティブモデルのトレーニングを可能にするフェデレーション学習が、プライバシ中心のソリューションとして登場した。
このアプローチは、特に悪意のあるエンティティがトレーニングプロセスに破損したデータを注入する、毒やバックドア攻撃、テスト時に誤分類を誘発することを目的とした回避攻撃など、セキュリティ上の問題を引き起こす。
本研究は, 対人訓練の交わり, 回避攻撃に対する共通の防御方法, 連合学習におけるバックドア攻撃について検討した。
本稿では、敵のクライアントのサブセットがフェデレーショントレーニング中にモデルロバスト性を意図的に損なうために使用するARU(Adversarial Robustness Unhardening)について紹介する。
本研究は、ARUの対人訓練への影響と、中毒やバックドア攻撃に対する既存の堅牢なアグリゲーション防御効果を評価するための広範囲な実験である。
以上の結果から,ARUを併用した対戦相手は,毒性攻撃やバックドア攻撃を中和する堅牢なアグリゲーション防御を回避できる可能性が示唆された。
関連論文リスト
- DROP: Poison Dilution via Knowledge Distillation for Federated Learning [23.793474308133003]
フェデレートラーニングは、悪意のあるクライアントが悪意のあるアップデートを注入して、グローバルモデルの振る舞いに影響を与える、敵の操作に対して脆弱である。
本稿では,クラスタリングとアクティビティ追跡技術を組み合わせた新しい防御機構DROPと,クライアントからの良質な振る舞いの抽出について紹介する。
提案手法は,幅広い学習環境における既存の防御法と比較して,優れたロバスト性を示す。
論文 参考訳(メタデータ) (2025-02-10T20:15:43Z) - Client-Side Patching against Backdoor Attacks in Federated Learning [0.0]
フェデレーション学習は、悪意のある参加者によって起動されるバックドア攻撃に対して脆弱である。
本稿では,クライアント側のバックドア攻撃を緩和するフェデレーション学習システムのための新しい防御機構を提案する。
我々のアプローチは、バックドア攻撃の影響を和らげるために、敵対的学習技術とモデルパッチを利用する。
論文 参考訳(メタデータ) (2024-12-13T23:17:10Z) - FEDLAD: Federated Evaluation of Deep Leakage Attacks and Defenses [50.921333548391345]
フェデレーテッド・ラーニング(Federated Learning)は、分散型機械学習パラダイムをプライバシ保護するものだ。
近年の研究では、Deep Leakageと呼ばれる勾配技術によって、民間の真実データを復元できることが判明している。
本稿では、Deep Leakage攻撃と防御を評価するための総合的なベンチマークであるFEDLAD Framework(Federated Evaluation of Deep Leakage Attacks and Defenses)を紹介する。
論文 参考訳(メタデータ) (2024-11-05T11:42:26Z) - GANcrop: A Contrastive Defense Against Backdoor Attacks in Federated Learning [1.9632700283749582]
本稿では,GANcrop という,協調学習におけるバックドア攻撃に対する防御機構について紹介する。
実験的には、特に非IIDシナリオにおいて、ガンクロップはバックドア攻撃に対して効果的に保護されていることが示されている。
論文 参考訳(メタデータ) (2024-05-31T09:33:16Z) - On the Difficulty of Defending Contrastive Learning against Backdoor
Attacks [58.824074124014224]
バックドア攻撃が、特有のメカニズムによってどのように動作するかを示す。
本研究は, 対照的なバックドア攻撃の特異性に合わせて, 防御の必要性を浮き彫りにした。
論文 参考訳(メタデータ) (2023-12-14T15:54:52Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - On the Effectiveness of Adversarial Training against Backdoor Attacks [111.8963365326168]
バックドアモデルは、事前に定義されたトリガーパターンが存在する場合、常にターゲットクラスを予測する。
一般的には、敵の訓練はバックドア攻撃に対する防御であると信じられている。
本稿では,様々なバックドア攻撃に対して良好な堅牢性を提供するハイブリッド戦略を提案する。
論文 参考訳(メタデータ) (2022-02-22T02:24:46Z) - Survey on Federated Learning Threats: concepts, taxonomy on attacks and
defences, experimental study and challenges [10.177219272933781]
フェデレーション・ラーニング(Federated Learning)は、人工知能におけるプライバシ保護要求の解決策として現れる機械学習パラダイムである。
機械学習として、フェデレートされた学習は、学習モデルの完全性とデータのプライバシに対する敵対的な攻撃によって、ローカルおよびグローバルな学習に取り組むための分散アプローチによって脅かされる。
論文 参考訳(メタデータ) (2022-01-20T12:23:03Z) - An Overview of Backdoor Attacks Against Deep Neural Networks and
Possible Defences [33.415612094924654]
本研究の目的は,これまでに提案された攻撃・防衛の多種多様さを概観することである。
バックドア攻撃では、攻撃者はトレーニングデータを破損し、テスト時に誤動作を誘発する。
テストタイムエラーは、適切に作成された入力サンプルに対応するトリガーイベントの存在下でのみ起動される。
論文 参考訳(メタデータ) (2021-11-16T13:06:31Z) - Widen The Backdoor To Let More Attackers In [24.540853975732922]
マルチエージェントバックドア攻撃のシナリオについて検討し、複数の非衝突攻撃者が共有データセットにトリガサンプルを挿入する。
攻撃者数の増加は攻撃者の攻撃成功率を減少させる。
そして、この現象を利用して攻撃者の集合的ASRを最小化し、防御者の堅牢性を最大化する。
論文 参考訳(メタデータ) (2021-10-09T13:53:57Z) - Where Did You Learn That From? Surprising Effectiveness of Membership
Inference Attacks Against Temporally Correlated Data in Deep Reinforcement
Learning [114.9857000195174]
深い強化学習を産業的に広く採用する上での大きな課題は、プライバシー侵害の潜在的な脆弱性である。
本稿では, 深層強化学習アルゴリズムの脆弱性を検証し, メンバーシップ推論攻撃に適応する対戦型攻撃フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-08T23:44:57Z) - Curse or Redemption? How Data Heterogeneity Affects the Robustness of
Federated Learning [51.15273664903583]
データの不均一性は、フェデレートラーニングにおける重要な特徴の1つとして認識されているが、しばしば敵対的攻撃に対する堅牢性のレンズで見過ごされる。
本稿では, 複合学習におけるバックドア攻撃の影響を, 総合的な実験を通じて評価し, 理解することを目的とした。
論文 参考訳(メタデータ) (2021-02-01T06:06:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。