論文の概要: A Knowledge Distillation-Based Backdoor Attack in Federated Learning
- arxiv url: http://arxiv.org/abs/2208.06176v1
- Date: Fri, 12 Aug 2022 08:52:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-15 13:48:38.770567
- Title: A Knowledge Distillation-Based Backdoor Attack in Federated Learning
- Title(参考訳): フェデレーション学習における知識蒸留に基づくバックドア攻撃
- Authors: Yifan Wang, Wei Fan, Keke Yang, Naji Alhusaini, Jing Li
- Abstract要約: Adversarial Knowledge Distillation (ADVKD) は、Federated Learning (FL) における知識蒸留とバックドアアタックを組み合わせた手法である。
以上の結果から,ADVKDは攻撃成功率が高いだけでなく,他の手法が失敗しても防御を回避できることが示唆された。
- 参考スコア(独自算出の注目度): 9.22321085045949
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) is a novel framework of decentralized machine
learning. Due to the decentralized feature of FL, it is vulnerable to
adversarial attacks in the training procedure, e.g. , backdoor attacks. A
backdoor attack aims to inject a backdoor into the machine learning model such
that the model will make arbitrarily incorrect behavior on the test sample with
some specific backdoor trigger. Even though a range of backdoor attack methods
of FL has been introduced, there are also methods defending against them. Many
of the defending methods utilize the abnormal characteristics of the models
with backdoor or the difference between the models with backdoor and the
regular models. To bypass these defenses, we need to reduce the difference and
the abnormal characteristics. We find a source of such abnormality is that
backdoor attack would directly flip the label of data when poisoning the data.
However, current studies of the backdoor attack in FL are not mainly focus on
reducing the difference between the models with backdoor and the regular
models. In this paper, we propose Adversarial Knowledge Distillation(ADVKD), a
method combine knowledge distillation with backdoor attack in FL. With
knowledge distillation, we can reduce the abnormal characteristics in model
result from the label flipping, thus the model can bypass the defenses.
Compared to current methods, we show that ADVKD can not only reach a higher
attack success rate, but also successfully bypass the defenses when other
methods fails. To further explore the performance of ADVKD, we test how the
parameters affect the performance of ADVKD under different scenarios. According
to the experiment result, we summarize how to adjust the parameter for better
performance under different scenarios. We also use several methods to visualize
the effect of different attack and explain the effectiveness of ADVKD.
- Abstract(参考訳): Federated Learning(FL)は、分散機械学習の新しいフレームワークである。
flの分散化機能のため、例えばバックドア攻撃など、トレーニング手順における敵の攻撃に対して脆弱である。
バックドア攻撃は、マシンラーニングモデルにバックドアを注入することで、特定のバックドアトリガでテストサンプル上で任意の不正な動作を行うようにする。
FLの様々なバックドア攻撃方法が導入されたが、それらに対する防御方法もある。
防御法の多くは、バックドアを持つモデルの異常特性や、バックドアを持つモデルと通常のモデルの違いを利用する。
これらの防御をバイパスするには、相違点と異常特性を減らす必要がある。
このような異常の原因は、データ中毒時にバックドア攻撃が直接データラベルをひっくり返すことである。
しかし、flにおけるバックドア攻撃の最近の研究は、主にバックドアモデルとレギュラーモデルの違いを減らすことに焦点を当てていない。
本稿では,flにおける知識蒸留とバックドア攻撃を組み合わせた手法であるadvkd(adversarial knowledge distillation)を提案する。
知識蒸留により, ラベルフリップによるモデル結果の異常特性を低減できるため, モデルが防御をバイパスできる。
現在の手法と比較して,ADVKDは攻撃成功率が高いだけでなく,他の手法が失敗しても防御を回避できることを示す。
そこで本研究では,ADVKDの性能が,異なるシナリオ下でのADVKDの性能に与える影響を検証した。
実験結果によると、異なるシナリオ下でのより良いパフォーマンスのためにパラメータを調整する方法を要約する。
また,様々な攻撃の効果を可視化し,advkdの有効性を説明するために複数の手法を用いた。
関連論文リスト
- Efficient Backdoor Defense in Multimodal Contrastive Learning: A Token-Level Unlearning Method for Mitigating Threats [52.94388672185062]
本稿では,機械学習という概念を用いて,バックドアの脅威に対する効果的な防御機構を提案する。
これは、モデルがバックドアの脆弱性を迅速に学習するのを助けるために、小さな毒のサンプルを戦略的に作成することを必要とする。
バックドア・アンラーニング・プロセスでは,新しいトークン・ベースの非ラーニング・トレーニング・システムを提案する。
論文 参考訳(メタデータ) (2024-09-29T02:55:38Z) - Mitigating Backdoor Attack by Injecting Proactive Defensive Backdoor [63.84477483795964]
データ中毒のバックドア攻撃は、機械学習モデルにとって深刻なセキュリティ上の脅威である。
本稿では,トレーニング中のバックドアディフェンスに着目し,データセットが有害になりうる場合でもクリーンなモデルをトレーニングすることを目的とした。
PDB(Proactive Defensive Backdoor)と呼ばれる新しい防衛手法を提案する。
論文 参考訳(メタデータ) (2024-05-25T07:52:26Z) - Concealing Backdoor Model Updates in Federated Learning by Trigger-Optimized Data Poisoning [20.69655306650485]
Federated Learning(FL)は、参加者がプライベートデータを共有せずに、協力的にモデルをトレーニングできる分散型機械学習手法である。
プライバシーとスケーラビリティの利点にもかかわらず、FLはバックドア攻撃の影響を受けやすい。
本稿では,バックドアトリガの最適化によりバックドア目標を動的に構築する,FLのバックドア攻撃戦略であるDPOTを提案する。
論文 参考訳(メタデータ) (2024-05-10T02:44:25Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - INK: Inheritable Natural Backdoor Attack Against Model Distillation [8.937026844871074]
InKは、モデル蒸留を標的とした、継承可能な自然バックドアアタックである。
INKは画像のばらつきをバックドアトリガーとして採用し、クリーンイメージとクリーンラベル攻撃の両方を可能にする。
例えば、INKは、既存の方法では平均1.4%の攻撃成功率に対して、蒸留後98%以上の攻撃成功率を維持している。
論文 参考訳(メタデータ) (2023-04-21T14:35:47Z) - Backdoor Defense via Suppressing Model Shortcuts [91.30995749139012]
本稿では,モデル構造の角度からバックドア機構を探索する。
攻撃成功率 (ASR) は, キースキップ接続の出力を減少させると著しく低下することを示した。
論文 参考訳(メタデータ) (2022-11-02T15:39:19Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - Backdoor Learning Curves: Explaining Backdoor Poisoning Beyond Influence
Functions [26.143147923356626]
インクリメンタルラーニングとインフルエンス関数のレンズによるバックドアラーニングのプロセスについて検討した。
バックドア攻撃の成功は、(i)学習アルゴリズムの複雑さと(ii)トレーニングセットに注入されたバックドアサンプルの割合に本質的に依存していることが示される。
論文 参考訳(メタデータ) (2021-06-14T08:00:48Z) - Black-box Detection of Backdoor Attacks with Limited Information and
Data [56.0735480850555]
モデルへのクエリアクセスのみを用いてバックドア攻撃を同定するブラックボックスバックドア検出(B3D)手法を提案する。
バックドア検出に加えて,同定されたバックドアモデルを用いた信頼性の高い予測手法を提案する。
論文 参考訳(メタデータ) (2021-03-24T12:06:40Z) - Defending against Backdoors in Federated Learning with Robust Learning
Rate [25.74681620689152]
フェデレートラーニング(FL)は、エージェントの集合が、潜在的に敏感なデータを共有せずに、協調的にモデルをトレーニングすることを可能にする。
バックドア攻撃において、敵はトレーニング中にモデルにバックドア機能を埋め込もうとする。
FLプロトコルの変更を最小限に抑える軽量ディフェンスを提案する。
論文 参考訳(メタデータ) (2020-07-07T23:38:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。