論文の概要: Adversarial Robustness Unhardening via Backdoor Attacks in Federated
Learning
- arxiv url: http://arxiv.org/abs/2310.11594v2
- Date: Sat, 21 Oct 2023 03:18:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-25 05:59:31.537106
- Title: Adversarial Robustness Unhardening via Backdoor Attacks in Federated
Learning
- Title(参考訳): 連帯学習におけるバックドア攻撃による非強固化
- Authors: Taejin Kim, Jiarui Li, Shubhranshu Singh, Nikhil Madaan, Carlee
Joe-Wong
- Abstract要約: 敵のロバストネス・アンハードニング(ARU)は、分散トレーニング中にモデルロバストネスを意図的に損なうために、敵のサブセットによって使用される。
本研究は,ARUの対人訓練への影響と,中毒やバックドア攻撃に対する既存の堅牢な防御効果を評価する実証実験である。
- 参考スコア(独自算出の注目度): 13.12397828096428
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In today's data-driven landscape, the delicate equilibrium between
safeguarding user privacy and unleashing data potential stands as a paramount
concern. Federated learning, which enables collaborative model training without
necessitating data sharing, has emerged as a privacy-centric solution. This
decentralized approach brings forth security challenges, notably poisoning and
backdoor attacks where malicious entities inject corrupted data. Our research,
initially spurred by test-time evasion attacks, investigates the intersection
of adversarial training and backdoor attacks within federated learning,
introducing Adversarial Robustness Unhardening (ARU). ARU is employed by a
subset of adversaries to intentionally undermine model robustness during
decentralized training, rendering models susceptible to a broader range of
evasion attacks. We present extensive empirical experiments evaluating ARU's
impact on adversarial training and existing robust aggregation defenses against
poisoning and backdoor attacks. Our findings inform strategies for enhancing
ARU to counter current defensive measures and highlight the limitations of
existing defenses, offering insights into bolstering defenses against ARU.
- Abstract(参考訳): 今日のデータ駆動の状況では、ユーザプライバシの保護とデータの可能性の解放の微妙な均衡が最重要課題である。
データ共有を必要とせずにコラボレーティブなモデルトレーニングを可能にするfederated learningが、プライバシ中心のソリューションとして登場した。
この分散的なアプローチは、悪意のあるエンティティが不正なデータを注入する、特に毒殺やバックドア攻撃といったセキュリティ上の課題をもたらす。
本研究は, 当初, テスト時間回避攻撃を契機として, 連合学習における対人訓練とバックドア攻撃の交点を調査し, 対人ロバストネス・アンハードニング(ARU)を導入した。
ARUは、分散トレーニング中のモデルの堅牢性を意図的に損なうために、敵のサブセットによって使用される。
我々は,ARUの対人訓練への影響と,中毒やバックドア攻撃に対する既存の堅牢な防御効果を評価する実験実験を行った。
本研究は、ARUを現在の防衛対策に対抗させ、既存の防衛の限界を強調し、ARUに対する防衛を強化するための戦略を示唆するものである。
関連論文リスト
- FEDLAD: Federated Evaluation of Deep Leakage Attacks and Defenses [50.921333548391345]
フェデレーテッド・ラーニング(Federated Learning)は、分散型機械学習パラダイムをプライバシ保護するものだ。
近年の研究では、Deep Leakageと呼ばれる勾配技術によって、民間の真実データを復元できることが判明している。
本稿では、Deep Leakage攻撃と防御を評価するための総合的なベンチマークであるFEDLAD Framework(Federated Evaluation of Deep Leakage Attacks and Defenses)を紹介する。
論文 参考訳(メタデータ) (2024-11-05T11:42:26Z) - GANcrop: A Contrastive Defense Against Backdoor Attacks in Federated Learning [1.9632700283749582]
本稿では,GANcrop という,協調学習におけるバックドア攻撃に対する防御機構について紹介する。
実験的には、特に非IIDシナリオにおいて、ガンクロップはバックドア攻撃に対して効果的に保護されていることが示されている。
論文 参考訳(メタデータ) (2024-05-31T09:33:16Z) - On the Difficulty of Defending Contrastive Learning against Backdoor
Attacks [58.824074124014224]
バックドア攻撃が、特有のメカニズムによってどのように動作するかを示す。
本研究は, 対照的なバックドア攻撃の特異性に合わせて, 防御の必要性を浮き彫りにした。
論文 参考訳(メタデータ) (2023-12-14T15:54:52Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - On the Effectiveness of Adversarial Training against Backdoor Attacks [111.8963365326168]
バックドアモデルは、事前に定義されたトリガーパターンが存在する場合、常にターゲットクラスを予測する。
一般的には、敵の訓練はバックドア攻撃に対する防御であると信じられている。
本稿では,様々なバックドア攻撃に対して良好な堅牢性を提供するハイブリッド戦略を提案する。
論文 参考訳(メタデータ) (2022-02-22T02:24:46Z) - Survey on Federated Learning Threats: concepts, taxonomy on attacks and
defences, experimental study and challenges [10.177219272933781]
フェデレーション・ラーニング(Federated Learning)は、人工知能におけるプライバシ保護要求の解決策として現れる機械学習パラダイムである。
機械学習として、フェデレートされた学習は、学習モデルの完全性とデータのプライバシに対する敵対的な攻撃によって、ローカルおよびグローバルな学習に取り組むための分散アプローチによって脅かされる。
論文 参考訳(メタデータ) (2022-01-20T12:23:03Z) - An Overview of Backdoor Attacks Against Deep Neural Networks and
Possible Defences [33.415612094924654]
本研究の目的は,これまでに提案された攻撃・防衛の多種多様さを概観することである。
バックドア攻撃では、攻撃者はトレーニングデータを破損し、テスト時に誤動作を誘発する。
テストタイムエラーは、適切に作成された入力サンプルに対応するトリガーイベントの存在下でのみ起動される。
論文 参考訳(メタデータ) (2021-11-16T13:06:31Z) - Widen The Backdoor To Let More Attackers In [24.540853975732922]
マルチエージェントバックドア攻撃のシナリオについて検討し、複数の非衝突攻撃者が共有データセットにトリガサンプルを挿入する。
攻撃者数の増加は攻撃者の攻撃成功率を減少させる。
そして、この現象を利用して攻撃者の集合的ASRを最小化し、防御者の堅牢性を最大化する。
論文 参考訳(メタデータ) (2021-10-09T13:53:57Z) - Where Did You Learn That From? Surprising Effectiveness of Membership
Inference Attacks Against Temporally Correlated Data in Deep Reinforcement
Learning [114.9857000195174]
深い強化学習を産業的に広く採用する上での大きな課題は、プライバシー侵害の潜在的な脆弱性である。
本稿では, 深層強化学習アルゴリズムの脆弱性を検証し, メンバーシップ推論攻撃に適応する対戦型攻撃フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-08T23:44:57Z) - Curse or Redemption? How Data Heterogeneity Affects the Robustness of
Federated Learning [51.15273664903583]
データの不均一性は、フェデレートラーニングにおける重要な特徴の1つとして認識されているが、しばしば敵対的攻撃に対する堅牢性のレンズで見過ごされる。
本稿では, 複合学習におけるバックドア攻撃の影響を, 総合的な実験を通じて評価し, 理解することを目的とした。
論文 参考訳(メタデータ) (2021-02-01T06:06:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。