論文の概要: DarkFed: A Data-Free Backdoor Attack in Federated Learning
- arxiv url: http://arxiv.org/abs/2405.03299v1
- Date: Mon, 6 May 2024 09:21:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-07 14:15:51.001938
- Title: DarkFed: A Data-Free Backdoor Attack in Federated Learning
- Title(参考訳): DarkFed:フェデレートラーニングにおけるデータフリーのバックドア攻撃
- Authors: Minghui Li, Wei Wan, Yuxuan Ning, Shengshan Hu, Lulu Xue, Leo Yu Zhang, Yichen Wang,
- Abstract要約: フェデレートラーニング(FL)は、バックドア攻撃の影響を受けやすいことが示されている。
シャドウデータセットを用いたバックドアFLに対するデータフリーアプローチを提案する。
私たちの調査では、シャドウデータセットとメインタスクデータセットの間に大きなギャップがある場合でも、印象的なアタックパフォーマンスを実現することが可能であることを明らかにしています。
- 参考スコア(独自算出の注目度): 12.598402035474718
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) has been demonstrated to be susceptible to backdoor attacks. However, existing academic studies on FL backdoor attacks rely on a high proportion of real clients with main task-related data, which is impractical. In the context of real-world industrial scenarios, even the simplest defense suffices to defend against the state-of-the-art attack, 3DFed. A practical FL backdoor attack remains in a nascent stage of development. To bridge this gap, we present DarkFed. Initially, we emulate a series of fake clients, thereby achieving the attacker proportion typical of academic research scenarios. Given that these emulated fake clients lack genuine training data, we further propose a data-free approach to backdoor FL. Specifically, we delve into the feasibility of injecting a backdoor using a shadow dataset. Our exploration reveals that impressive attack performance can be achieved, even when there is a substantial gap between the shadow dataset and the main task dataset. This holds true even when employing synthetic data devoid of any semantic information as the shadow dataset. Subsequently, we strategically construct a series of covert backdoor updates in an optimized manner, mimicking the properties of benign updates, to evade detection by defenses. A substantial body of empirical evidence validates the tangible effectiveness of DarkFed.
- Abstract(参考訳): フェデレートラーニング(FL)は、バックドア攻撃の影響を受けやすいことが示されている。
しかし、FLバックドア攻撃に関する既存の学術研究は、主要なタスク関連データを持つ実際のクライアントの多さに依存しており、これは現実的ではない。
現実の産業シナリオの文脈では、最も単純な防御でも最先端の攻撃に対して防御するのに十分です。
現実的なFLバックドア攻撃は、まだ開発の初期段階にある。
このギャップを埋めるために、私たちはDarkFedを紹介します。
当初、我々は一連のフェイククライアントをエミュレートし、学術研究のシナリオに典型的な攻撃者の比率を達成した。
これらのエミュレートされたフェイククライアントには真のトレーニングデータがないため、バックドアFLに対するデータフリーアプローチをさらに提案する。
具体的には、シャドウデータセットを使用してバックドアを注入する可能性について検討する。
私たちの調査では、シャドウデータセットとメインタスクデータセットの間に大きなギャップがある場合でも、印象的なアタックパフォーマンスを実現することが可能であることを明らかにしています。
これは、シャドウデータセットとして意味情報を欠いた合成データを使用する場合であっても当てはまる。
続いて,良質な更新の特性を模倣した一連の隠蔽バックドア更新を最適化して戦略的に構築し,防御による検出を回避する。
かなりの量の実証的な証拠がダークフッドの具体的な効果を証明している。
関連論文リスト
- Distributed Backdoor Attacks on Federated Graph Learning and Certified Defenses [50.53476890313741]
我々は,FedGLに対する効果的な,ステルス的で永続的なバックドア攻撃を提案する。
我々は,任意の位置において任意の形状のトリガに対して,バックドアのFedGLモデルに対する認証された防御を開発する。
我々の攻撃結果は、ほぼ全てのデータセットで90%以上のバックドア精度が得られることを示している。
論文 参考訳(メタデータ) (2024-07-12T02:43:44Z) - Concealing Backdoor Model Updates in Federated Learning by Trigger-Optimized Data Poisoning [20.69655306650485]
Federated Learning(FL)は、参加者がプライベートデータを共有せずに、協力的にモデルをトレーニングできる分散型機械学習手法である。
プライバシーとスケーラビリティの利点にもかかわらず、FLはバックドア攻撃の影響を受けやすい。
本稿では,バックドアトリガの最適化によりバックドア目標を動的に構築する,FLのバックドア攻撃戦略であるDPOTを提案する。
論文 参考訳(メタデータ) (2024-05-10T02:44:25Z) - Rethinking Backdoor Attacks [122.1008188058615]
バックドア攻撃では、悪意ある構築されたバックドアの例をトレーニングセットに挿入し、結果のモデルを操作に脆弱にする。
このような攻撃に対する防御は、典型的には、これらの挿入された例をトレーニングセットの外れ値として見ることと、堅牢な統計からのテクニックを使用してそれらを検出し、削除することである。
トレーニングデータ分布に関する構造情報がなければ,バックドア攻撃は自然に発生するデータの特徴と区別できないことを示す。
論文 参考訳(メタデータ) (2023-07-19T17:44:54Z) - Efficient Backdoor Attacks for Deep Neural Networks in Real-world Scenarios [17.928013313779516]
最近のディープニューラルネットワーク(DNN)は、膨大なトレーニングデータに依存している。
本稿では,被害者が複数の情報源からデータを収集する,より現実的な攻撃シナリオを提案する。
クリーンな特徴抑圧とPhoisoning Feature Augmentationの2つの異なるストリームからCLIPベースの3つの技術を紹介した。
論文 参考訳(メタデータ) (2023-06-14T09:21:48Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Towards a Defense against Backdoor Attacks in Continual Federated
Learning [26.536009090970257]
連合型連続学習環境におけるバックドア攻撃を防御する新しい枠組みを提案する。
私たちのフレームワークでは,バックボーンモデルとシャドーモデルという,2つのモデルを並列にトレーニングしています。
我々は,既存のバックドア攻撃に対する防御において,我々の枠組みが著しく改善されることを実験的に示す。
論文 参考訳(メタデータ) (2022-05-24T03:04:21Z) - On the Effectiveness of Adversarial Training against Backdoor Attacks [111.8963365326168]
バックドアモデルは、事前に定義されたトリガーパターンが存在する場合、常にターゲットクラスを予測する。
一般的には、敵の訓練はバックドア攻撃に対する防御であると信じられている。
本稿では,様々なバックドア攻撃に対して良好な堅牢性を提供するハイブリッド戦略を提案する。
論文 参考訳(メタデータ) (2022-02-22T02:24:46Z) - Backdoor Learning: A Survey [75.59571756777342]
バックドア攻撃はディープニューラルネットワーク(DNN)に隠れたバックドアを埋め込む
バックドア学習は、急速に成長する研究分野である。
本稿では,この領域を包括的に調査する。
論文 参考訳(メタデータ) (2020-07-17T04:09:20Z) - Defending against Backdoors in Federated Learning with Robust Learning
Rate [25.74681620689152]
フェデレートラーニング(FL)は、エージェントの集合が、潜在的に敏感なデータを共有せずに、協調的にモデルをトレーニングすることを可能にする。
バックドア攻撃において、敵はトレーニング中にモデルにバックドア機能を埋め込もうとする。
FLプロトコルの変更を最小限に抑える軽量ディフェンスを提案する。
論文 参考訳(メタデータ) (2020-07-07T23:38:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。