論文の概要: ASSET: Robust Backdoor Data Detection Across a Multiplicity of Deep
Learning Paradigms
- arxiv url: http://arxiv.org/abs/2302.11408v1
- Date: Wed, 22 Feb 2023 14:43:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-23 15:06:16.354393
- Title: ASSET: Robust Backdoor Data Detection Across a Multiplicity of Deep
Learning Paradigms
- Title(参考訳): ASSET: 深層学習パラダイムの多重性にまたがるロバストなバックドアデータ検出
- Authors: Minzhou Pan, Yi Zeng, Lingjuan Lyu, Xue Lin and Ruoxi Jia
- Abstract要約: バックドアデータ検出は、エンドツーエンドの教師あり学習(SL)設定で伝統的に研究されている。
近年,ラベル付きデータの必要性の低さから,自己教師付き学習(SSL)や転送学習(TL)の普及が進んでいる。
既存の検出手法の性能は様々な攻撃や毒素比で大きく異なり、すべて最先端のクリーンラベル攻撃では失敗する。
- 参考スコア(独自算出の注目度): 39.753721029332326
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Backdoor data detection is traditionally studied in an end-to-end supervised
learning (SL) setting. However, recent years have seen the proliferating
adoption of self-supervised learning (SSL) and transfer learning (TL), due to
their lesser need for labeled data. Successful backdoor attacks have also been
demonstrated in these new settings. However, we lack a thorough understanding
of the applicability of existing detection methods across a variety of learning
settings. By evaluating 56 attack settings, we show that the performance of
most existing detection methods varies significantly across different attacks
and poison ratios, and all fail on the state-of-the-art clean-label attack. In
addition, they either become inapplicable or suffer large performance losses
when applied to SSL and TL. We propose a new detection method called Active
Separation via Offset (ASSET), which actively induces different model behaviors
between the backdoor and clean samples to promote their separation. We also
provide procedures to adaptively select the number of suspicious points to
remove. In the end-to-end SL setting, ASSET is superior to existing methods in
terms of consistency of defensive performance across different attacks and
robustness to changes in poison ratios; in particular, it is the only method
that can detect the state-of-the-art clean-label attack. Moreover, ASSET's
average detection rates are higher than the best existing methods in SSL and
TL, respectively, by 69.3% and 33.2%, thus providing the first practical
backdoor defense for these new DL settings. We open-source the project to drive
further development and encourage engagement:
https://github.com/ruoxi-jia-group/ASSET.
- Abstract(参考訳): バックドアデータ検出は、エンドツーエンドの教師あり学習(SL)設定で伝統的に研究されている。
しかし近年,ラベル付きデータの必要性の低さから,自己教師付き学習(SSL)や転送学習(TL)の普及が進んでいる。
これらの新しい設定でバックドア攻撃が成功したことも実証されている。
しかし,様々な学習環境において,既存の検出手法の適用性は十分に理解されていない。
56の攻撃条件を評価することにより,既存の検出手法の性能は異なる攻撃と毒素比で大きく異なり,すべて最先端のクリーンラベル攻撃で失敗することを示す。
さらに、SSLとTLに適用されると、それらは適用不能になるか、大きなパフォーマンス損失を被る。
本稿では,バックドアとクリーンサンプル間の異なるモデル挙動を積極的に誘導し,分離を促進するアクティブ分離(asset)と呼ばれる新しい検出法を提案する。
また,削除すべき不審点数を適応的に選択する手順も提供する。
エンド・ツー・エンドのSL設定において、ASSETは様々な攻撃に対する防御性能の整合性と毒性比の変化に対する堅牢性の点で既存の方法よりも優れており、特に最先端のクリーンラベル攻撃を検出する方法として唯一である。
さらに、アセットの平均検出率はsslとtlの既存の最良の方法よりも69.3%高く33.2%高く、これらの新しいdl設定に対する最初の実用的なバックドア防御を提供する。
我々はこのプロジェクトをオープンソース化し、さらなる開発とエンゲージメントを促進する。
関連論文リスト
- Backdoor Defense through Self-Supervised and Generative Learning [0.0]
このようなデータのトレーニングは、選択されたテストサンプルに悪意のある推論を引き起こすバックドアを注入する。
本稿では,自己教師付き表現空間におけるクラスごとの分布生成モデルに基づくアプローチを提案する。
どちらの場合も、クラスごとの生成モデルにより、有毒なデータを検出し、データセットをクリーン化することができます。
論文 参考訳(メタデータ) (2024-09-02T11:40:01Z) - Towards Adversarial Robustness And Backdoor Mitigation in SSL [0.562479170374811]
Self-Supervised Learning (SSL)は、ラベルのないデータから表現を学習する際の大きな可能性を示している。
SSLメソッドは、最近、バックドア攻撃に対して脆弱であることが示されている。
この作業はSSLのバックドア攻撃に対する防御に対処することを目的としている。
論文 参考訳(メタデータ) (2024-03-23T19:21:31Z) - Does Few-shot Learning Suffer from Backdoor Attacks? [63.9864247424967]
数発の学習がバックドアアタックに対して脆弱であることは明らかです。
本手法は,FSLタスクにおける攻撃成功率(ASR)を,異なる数発の学習パラダイムで示す。
この研究は、数発の学習がまだバックドア攻撃に悩まされており、そのセキュリティに注意を払う必要があることを明らかにしている。
論文 参考訳(メタデータ) (2023-12-31T06:43:36Z) - Erasing Self-Supervised Learning Backdoor by Cluster Activation Masking [65.44477004525231]
研究者は最近、自己監視学習(SSL)がバックドア攻撃に脆弱であることを発見した。
本稿では,クラスタアクティベーションマスキングによるSSLバックドアの消去を提案し,新しいPoisonCAM法を提案する。
ImageNet-100の最先端手法の3%と比較して,バックドアトリガ検出の精度は96%であった。
論文 参考訳(メタデータ) (2023-12-13T08:01:15Z) - FLTracer: Accurate Poisoning Attack Provenance in Federated Learning [38.47921452675418]
Federated Learning(FL)は、複数のクライアントが共同で共有グローバルモデルをトレーニングできる、有望な分散学習アプローチである。
近年の研究では、FLは様々な毒殺攻撃に弱いことが示されており、グローバルモデルの性能を低下させるか、バックドアを導入することができる。
FLTracerは、様々な攻撃を正確に検出し、攻撃時間、目的、タイプ、および更新の有毒な位置を追跡できる最初のFL攻撃フレームワークである。
論文 参考訳(メタデータ) (2023-10-20T11:24:38Z) - Improved Activation Clipping for Universal Backdoor Mitigation and
Test-Time Detection [27.62279831135902]
ディープニューラルネットワークは、攻撃者がバックドアトリガーでトレーニングセットに毒を盛るトロイア攻撃に対して脆弱である。
近年の研究では、バックドア中毒は攻撃されたモデルにおいて過剰な適合(通常、大きな活性化)を引き起こすことが示されている。
我々は、分類マージンを明示的に制限するためにアクティベーション境界を選択する新しいアプローチを考案する。
論文 参考訳(メタデータ) (2023-08-08T22:47:39Z) - An Embarrassingly Simple Backdoor Attack on Self-supervised Learning [52.28670953101126]
自己教師付き学習(SSL)は、ラベルに頼ることなく、複雑なデータの高品質な表現を学習することができる。
SSLのバックドア攻撃に対する脆弱性について検討する。
論文 参考訳(メタデータ) (2022-10-13T20:39:21Z) - Federated Zero-Shot Learning for Visual Recognition [55.65879596326147]
本稿では,Federated Zero-Shot Learning FedZSLフレームワークを提案する。
FedZSLは、エッジデバイス上の分散データから中心的なモデルを学ぶ。
FedZSLの有効性と堅牢性は、3つのゼロショットベンチマークデータセットで実施された広範な実験によって実証された。
論文 参考訳(メタデータ) (2022-09-05T14:49:34Z) - Scalable Backdoor Detection in Neural Networks [61.39635364047679]
ディープラーニングモデルは、トロイの木馬攻撃に対して脆弱で、攻撃者はトレーニング中にバックドアをインストールして、結果のモデルが小さなトリガーパッチで汚染されたサンプルを誤識別させる。
本稿では,ラベル数と計算複雑性が一致しない新たなトリガリバースエンジニアリング手法を提案する。
実験では,提案手法が純モデルからトロイの木馬モデルを分離する際の完全なスコアを達成できることが観察された。
論文 参考訳(メタデータ) (2020-06-10T04:12:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。