論文の概要: An Embarrassingly Simple Backdoor Attack on Self-supervised Learning
- arxiv url: http://arxiv.org/abs/2210.07346v2
- Date: Mon, 14 Aug 2023 01:07:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-15 23:06:45.989398
- Title: An Embarrassingly Simple Backdoor Attack on Self-supervised Learning
- Title(参考訳): 自己教師型学習における極めて単純なバックドア攻撃
- Authors: Changjiang Li, Ren Pang, Zhaohan Xi, Tianyu Du, Shouling Ji, Yuan Yao,
Ting Wang
- Abstract要約: 自己教師付き学習(SSL)は、ラベルに頼ることなく、複雑なデータの高品質な表現を学習することができる。
SSLのバックドア攻撃に対する脆弱性について検討する。
- 参考スコア(独自算出の注目度): 52.28670953101126
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As a new paradigm in machine learning, self-supervised learning (SSL) is
capable of learning high-quality representations of complex data without
relying on labels. In addition to eliminating the need for labeled data,
research has found that SSL improves the adversarial robustness over supervised
learning since lacking labels makes it more challenging for adversaries to
manipulate model predictions. However, the extent to which this robustness
superiority generalizes to other types of attacks remains an open question.
We explore this question in the context of backdoor attacks. Specifically, we
design and evaluate CTRL, an embarrassingly simple yet highly effective
self-supervised backdoor attack. By only polluting a tiny fraction of training
data (<= 1%) with indistinguishable poisoning samples, CTRL causes any
trigger-embedded input to be misclassified to the adversary's designated class
with a high probability (>= 99%) at inference time. Our findings suggest that
SSL and supervised learning are comparably vulnerable to backdoor attacks. More
importantly, through the lens of CTRL, we study the inherent vulnerability of
SSL to backdoor attacks. With both empirical and analytical evidence, we reveal
that the representation invariance property of SSL, which benefits adversarial
robustness, may also be the very reason making \ssl highly susceptible to
backdoor attacks. Our findings also imply that the existing defenses against
supervised backdoor attacks are not easily retrofitted to the unique
vulnerability of SSL.
- Abstract(参考訳): 機械学習の新しいパラダイムとして、自己教師付き学習(SSL)は、ラベルに頼ることなく複雑なデータの高品質な表現を学習することができる。
ラベル付きデータの必要性の排除に加えて、sslはラベルの欠如によってモデル予測を操作することが難しくなるため、教師付き学習よりも敵対的堅牢性が向上している。
しかしながら、この堅牢性優位性が他の種類の攻撃に一般化する程度は未解決の問題である。
我々はこの質問をバックドア攻撃の文脈で検討する。
具体的には, 恥ずかしいほど単純かつ効果的に自己監視されたバックドア攻撃であるctrlを設計, 評価した。
CTRLは、少数のトレーニングデータ(=1%)を識別不能な中毒サンプルで汚染することによって、任意のトリガー埋め込み入力を、推論時に高い確率(=99%)で相手の指定クラスに誤分類する。
この結果から,SSLと教師あり学習はバックドア攻撃に対して極めて脆弱であることが示唆された。
さらに重要なことは、CTRLのレンズを通して、SSLのバックドア攻撃に対する固有の脆弱性を研究することである。
実証的証拠と解析的証拠の両方で、敵の堅牢性に寄与するSSLの表現不変性が、Shasslがバックドア攻撃に非常に影響を受けやすい理由であることを示している。
また,既存のバックドア攻撃に対する防御は,SSLのユニークな脆弱性に容易には適用できないことが示唆された。
関連論文リスト
- Efficient Backdoor Defense in Multimodal Contrastive Learning: A Token-Level Unlearning Method for Mitigating Threats [52.94388672185062]
本稿では,機械学習という概念を用いて,バックドアの脅威に対する効果的な防御機構を提案する。
これは、モデルがバックドアの脆弱性を迅速に学習するのを助けるために、小さな毒のサンプルを戦略的に作成することを必要とする。
バックドア・アンラーニング・プロセスでは,新しいトークン・ベースの非ラーニング・トレーニング・システムを提案する。
論文 参考訳(メタデータ) (2024-09-29T02:55:38Z) - EmInspector: Combating Backdoor Attacks in Federated Self-Supervised Learning Through Embedding Inspection [53.25863925815954]
フェデレートされた自己教師付き学習(FSSL)は、クライアントの膨大な量の未ラベルデータの利用を可能にする、有望なパラダイムとして登場した。
FSSLはアドバンテージを提供するが、バックドア攻撃に対する感受性は調査されていない。
ローカルモデルの埋め込み空間を検査し,悪意のあるクライアントを検知する埋め込み検査器(EmInspector)を提案する。
論文 参考訳(メタデータ) (2024-05-21T06:14:49Z) - Towards Adversarial Robustness And Backdoor Mitigation in SSL [0.562479170374811]
Self-Supervised Learning (SSL)は、ラベルのないデータから表現を学習する際の大きな可能性を示している。
SSLメソッドは、最近、バックドア攻撃に対して脆弱であることが示されている。
この作業はSSLのバックドア攻撃に対する防御に対処することを目的としている。
論文 参考訳(メタデータ) (2024-03-23T19:21:31Z) - Does Few-shot Learning Suffer from Backdoor Attacks? [63.9864247424967]
数発の学習がバックドアアタックに対して脆弱であることは明らかです。
本手法は,FSLタスクにおける攻撃成功率(ASR)を,異なる数発の学習パラダイムで示す。
この研究は、数発の学習がまだバックドア攻撃に悩まされており、そのセキュリティに注意を払う必要があることを明らかにしている。
論文 参考訳(メタデータ) (2023-12-31T06:43:36Z) - Erasing Self-Supervised Learning Backdoor by Cluster Activation Masking [65.44477004525231]
研究者は最近、自己監視学習(SSL)がバックドア攻撃に脆弱であることを発見した。
本稿では,クラスタアクティベーションマスキングによるSSLバックドアの消去を提案し,新しいPoisonCAM法を提案する。
ImageNet-100の最先端手法の3%と比較して,バックドアトリガ検出の精度は96%であった。
論文 参考訳(メタデータ) (2023-12-13T08:01:15Z) - Rethinking Backdoor Attacks [122.1008188058615]
バックドア攻撃では、悪意ある構築されたバックドアの例をトレーニングセットに挿入し、結果のモデルを操作に脆弱にする。
このような攻撃に対する防御は、典型的には、これらの挿入された例をトレーニングセットの外れ値として見ることと、堅牢な統計からのテクニックを使用してそれらを検出し、削除することである。
トレーニングデータ分布に関する構造情報がなければ,バックドア攻撃は自然に発生するデータの特徴と区別できないことを示す。
論文 参考訳(メタデータ) (2023-07-19T17:44:54Z) - Targeted Forgetting and False Memory Formation in Continual Learners
through Adversarial Backdoor Attacks [2.830541450812474]
破滅的な忘れ物を避けるために,一般的な連続学習アルゴリズムであるElastic Weight Consolidation (EWC)の脆弱性について検討する。
知的敵は、EWCの防御を回避でき、訓練中に少量の誤報をモデルに導入することで、段階的かつ故意に忘れることを引き起こす。
MNISTデータセットの置換型と分割型の両方に"バックドア"攻撃サンプルを注入することで、モデルの制御を前提とする敵の能力を実証する。
論文 参考訳(メタデータ) (2020-02-17T18:13:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。