論文の概要: Towards Adversarial Robustness And Backdoor Mitigation in SSL
- arxiv url: http://arxiv.org/abs/2403.15918v3
- Date: Mon, 16 Sep 2024 05:49:02 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-18 02:45:24.159949
- Title: Towards Adversarial Robustness And Backdoor Mitigation in SSL
- Title(参考訳): SSLにおける敵のロバスト性とバックドアの緩和に向けて
- Authors: Aryan Satpathy, Nilaksh Singh, Dhruva Rajwade, Somesh Kumar,
- Abstract要約: Self-Supervised Learning (SSL)は、ラベルのないデータから表現を学習する際の大きな可能性を示している。
SSLメソッドは、最近、バックドア攻撃に対して脆弱であることが示されている。
この作業はSSLのバックドア攻撃に対する防御に対処することを目的としている。
- 参考スコア(独自算出の注目度): 0.562479170374811
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Self-Supervised Learning (SSL) has shown great promise in learning representations from unlabeled data. The power of learning representations without the need for human annotations has made SSL a widely used technique in real-world problems. However, SSL methods have recently been shown to be vulnerable to backdoor attacks, where the learned model can be exploited by adversaries to manipulate the learned representations, either through tampering the training data distribution, or via modifying the model itself. This work aims to address defending against backdoor attacks in SSL, where the adversary has access to a realistic fraction of the SSL training data, and no access to the model. We use novel methods that are computationally efficient as well as generalizable across different problem settings. We also investigate the adversarial robustness of SSL models when trained with our method, and show insights into increased robustness in SSL via frequency domain augmentations. We demonstrate the effectiveness of our method on a variety of SSL benchmarks, and show that our method is able to mitigate backdoor attacks while maintaining high performance on downstream tasks. Code for our work is available at github.com/Aryan-Satpathy/Backdoor
- Abstract(参考訳): Self-Supervised Learning (SSL)は、ラベルのないデータから表現を学習する際の大きな可能性を示している。
人間のアノテーションを必要とせずに表現を学習する能力によって、SSLは現実世界の問題において広く使われている技術となった。
しかし、SSLメソッドは、最近、バックドア攻撃に対して脆弱であることが示されている。そこでは、学習したモデルを敵に利用して、学習した表現を操作することができる。
この作業は、SSLのバックドア攻撃に対する防御に対処することを目的としており、敵はSSLトレーニングデータの現実的な部分にアクセスでき、モデルにアクセスできない。
我々は、計算効率が良く、異なる問題設定にまたがって一般化可能な新しい手法を用いる。
また,本手法を訓練した場合のSSLモデルの逆ロバスト性について検討し,周波数領域拡張によるSSLのロバスト性向上に関する知見を示す。
提案手法の有効性をSSLベンチマークで示すとともに,ダウンストリームタスクにおける高い性能を維持しつつ,バックドア攻撃を軽減できることを示す。
私たちの仕事のコードはgithub.com/Aryan-Satpathy/Backdoorで利用可能です。
関連論文リスト
- Does Few-shot Learning Suffer from Backdoor Attacks? [63.9864247424967]
数発の学習がバックドアアタックに対して脆弱であることは明らかです。
本手法は,FSLタスクにおける攻撃成功率(ASR)を,異なる数発の学習パラダイムで示す。
この研究は、数発の学習がまだバックドア攻撃に悩まされており、そのセキュリティに注意を払う必要があることを明らかにしている。
論文 参考訳(メタデータ) (2023-12-31T06:43:36Z) - Erasing Self-Supervised Learning Backdoor by Cluster Activation Masking [65.44477004525231]
研究者は最近、自己監視学習(SSL)がバックドア攻撃に脆弱であることを発見した。
本稿では,クラスタアクティベーションマスキングによるSSLバックドアの消去を提案し,新しいPoisonCAM法を提案する。
ImageNet-100の最先端手法の3%と比較して,バックドアトリガ検出の精度は96%であった。
論文 参考訳(メタデータ) (2023-12-13T08:01:15Z) - ASSET: Robust Backdoor Data Detection Across a Multiplicity of Deep
Learning Paradigms [39.753721029332326]
バックドアデータ検出は、エンドツーエンドの教師あり学習(SL)設定で伝統的に研究されている。
近年,ラベル付きデータの必要性の低さから,自己教師付き学習(SSL)や転送学習(TL)の普及が進んでいる。
既存の検出手法の性能は様々な攻撃や毒素比で大きく異なり、すべて最先端のクリーンラベル攻撃では失敗する。
論文 参考訳(メタデータ) (2023-02-22T14:43:33Z) - An Embarrassingly Simple Backdoor Attack on Self-supervised Learning [52.28670953101126]
自己教師付き学習(SSL)は、ラベルに頼ることなく、複雑なデータの高品質な表現を学習することができる。
SSLのバックドア攻撃に対する脆弱性について検討する。
論文 参考訳(メタデータ) (2022-10-13T20:39:21Z) - Semi-Leak: Membership Inference Attacks Against Semi-supervised Learning [42.089020844936805]
半教師付き学習(SSL)はラベル付きデータとラベルなしデータの両方を活用して機械学習(ML)モデルをトレーニングする。
SSLでトレーニングされたMLモデルに対して,データ拡張に基づく最初のメンバシップ推論攻撃を提案する。
評価の結果,提案攻撃は既存のメンバシップ推論攻撃よりも一貫して優れていることがわかった。
論文 参考訳(メタデータ) (2022-07-25T21:17:24Z) - On Higher Adversarial Susceptibility of Contrastive Self-Supervised
Learning [104.00264962878956]
コントラスト型自己教師学習(CSL)は,画像と映像の分類において,教師あり学習のパフォーマンスに適合するか上回っている。
2つの学習パラダイムによって誘導される表現の性質が似ているかどうかは、いまだに不明である。
我々は,CSL表現空間における単位超球面上のデータ表現の均一分布を,この現象の鍵となる要因として同定する。
CSLトレーニングでモデルロバスト性を改善するのにシンプルだが有効である戦略を考案する。
論文 参考訳(メタデータ) (2022-07-22T03:49:50Z) - DATA: Domain-Aware and Task-Aware Pre-training [94.62676913928831]
我々は、自己教師付き学習(SSL)に特化した、シンプルで効果的なNASアプローチであるDataを提示する。
提案手法は,画像分類,オブジェクト検出,セマンティックセグメンテーションなど,下流タスクにおける計算コストの広い範囲にわたる有望な結果を実現する。
論文 参考訳(メタデータ) (2022-03-17T02:38:49Z) - Don't fear the unlabelled: safe deep semi-supervised learning via simple
debiasing [12.569695703536615]
半教師付き学習(SSL)は、モデルの性能を改善するために、非ラベルデータを活用する効果的な手段を提供する。
ほとんどのメソッドは安全でないという共通の欠点を示します。
このバイアスは、適切な検証セットなしでこれらのテクニックを信頼できないものにします。
論文 参考訳(メタデータ) (2022-03-14T21:42:21Z) - Interventional Few-Shot Learning [88.31112565383457]
本稿では,新しいFew-Shot Learningパラダイム,Interventional Few-Shot Learningを提案する。
コードはhttps://github.com/yue-zhongqi/ifsl.comで公開されている。
論文 参考訳(メタデータ) (2020-09-28T01:16:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。