論文の概要: Exploiting Supervised Poison Vulnerability to Strengthen Self-Supervised Defense
- arxiv url: http://arxiv.org/abs/2409.08509v1
- Date: Fri, 13 Sep 2024 03:12:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-16 17:58:09.209089
- Title: Exploiting Supervised Poison Vulnerability to Strengthen Self-Supervised Defense
- Title(参考訳): 自衛隊の強化をめざして
- Authors: Jeremy Styborski, Mingzhi Lyu, Yi Huang, Adams Kong,
- Abstract要約: 自己教師付き学習(SSL)は、有毒データに対する強力な防御と見なされている。
CIFAR-10およびImageNet-100データセット上で,複数の毒素にまたがるSSLについて検討した。
提案する防衛力は,従来の6つの防衛能力を上回る。
- 参考スコア(独自算出の注目度): 3.4460811765644457
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Availability poisons exploit supervised learning (SL) algorithms by introducing class-related shortcut features in images such that models trained on poisoned data are useless for real-world datasets. Self-supervised learning (SSL), which utilizes augmentations to learn instance discrimination, is regarded as a strong defense against poisoned data. However, by extending the study of SSL across multiple poisons on the CIFAR-10 and ImageNet-100 datasets, we demonstrate that it often performs poorly, far below that of training on clean data. Leveraging the vulnerability of SL to poison attacks, we introduce adversarial training (AT) on SL to obfuscate poison features and guide robust feature learning for SSL. Our proposed defense, designated VESPR (Vulnerability Exploitation of Supervised Poisoning for Robust SSL), surpasses the performance of six previous defenses across seven popular availability poisons. VESPR displays superior performance over all previous defenses, boosting the minimum and average ImageNet-100 test accuracies of poisoned models by 16% and 9%, respectively. Through analysis and ablation studies, we elucidate the mechanisms by which VESPR learns robust class features.
- Abstract(参考訳): アベイラビリティ毒は、教師付き学習(SL)アルゴリズムを利用して、有毒データでトレーニングされたモデルが現実世界のデータセットでは役に立たないような、クラス関連のショートカット機能を導入している。
自己教師付き学習(SSL)は、強化を利用してインスタンス識別を学習するものであり、有毒データに対する強力な防御と見なされている。
しかし、CIFAR-10とImageNet-100データセット上の複数の毒素をまたいでSSLの研究を拡張することで、クリーンなデータに対するトレーニングよりもはるかに低い性能で、しばしば性能が良くないことを示した。
SLの脆弱性を悪毒攻撃に活用し,毒の特徴を消毒し,SSLの堅牢な特徴学習を指導するために,SLに敵対的訓練(AT)を導入する。
VESPR (Vulnerability Exploitation of Supervised Poisoning for Robust SSL) と命名された当社の防衛は,7種類のアベイラビリティ・アベイラビリティ・アベイラビリティ・アベイラビリティ・アベイラビリティ・アベイラビリティ・ロバスト・SSL (VESPR) の6つの防衛性能を上回った。
VESPRは以前のすべての防御よりも優れたパフォーマンスを示し、毒入りモデルの最小値と平均値のImageNet-100テスト精度をそれぞれ16%、9%向上させた。
分析およびアブレーション研究を通じて,VESPRが頑健なクラス特徴を学習するメカニズムを明らかにする。
関連論文リスト
- Potion: Towards Poison Unlearning [47.00450933765504]
悪意あるアクターによる機械学習システムに対する敵対的攻撃は重大なリスクをもたらす。
このような攻撃を解決する上での課題は、実際に有毒データのサブセットのみを特定できる場合である。
我々の研究は、有毒未学習の最先端を推し進めるための2つの重要な課題に対処する。
論文 参考訳(メタデータ) (2024-06-13T14:35:11Z) - Have You Poisoned My Data? Defending Neural Networks against Data Poisoning [0.393259574660092]
本稿では,トランスファー学習環境における有毒なデータポイントの検出とフィルタリングを行う新しい手法を提案する。
有効毒は, 特徴ベクトル空間の清浄点とよく区別できることを示す。
提案手法は, 防衛率と最終訓練モデルの性能において, 既存の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-03-20T11:50:16Z) - Erasing Self-Supervised Learning Backdoor by Cluster Activation Masking [65.44477004525231]
研究者は最近、自己監視学習(SSL)がバックドア攻撃に脆弱であることを発見した。
本稿では,クラスタアクティベーションマスキングによるSSLバックドアの消去を提案し,新しいPoisonCAM法を提案する。
ImageNet-100の最先端手法の3%と比較して,バックドアトリガ検出の精度は96%であった。
論文 参考訳(メタデータ) (2023-12-13T08:01:15Z) - On Practical Aspects of Aggregation Defenses against Data Poisoning
Attacks [58.718697580177356]
悪意のあるトレーニングサンプルを持つディープラーニングモデルに対する攻撃は、データ中毒として知られている。
データ中毒に対する防衛戦略の最近の進歩は、認証された毒性の堅牢性を達成するためのアグリゲーション・スキームの有効性を強調している。
ここでは、Deep Partition Aggregation(ディープ・パーティション・アグリゲーション・アグリゲーション)、代表的アグリゲーション・ディフェンス(アグリゲーション・ディフェンス)に焦点を当て、効率、性能、堅牢性など、その実践的側面を評価する。
論文 参考訳(メタデータ) (2023-06-28T17:59:35Z) - Instructions as Backdoors: Backdoor Vulnerabilities of Instruction Tuning for Large Language Models [53.416234157608]
本稿では,タスク命令付きクラウドソースデータセット上でモデルが訓練され,優れたパフォーマンスを実現するという,創発的命令チューニングパラダイムのセキュリティ上の懸念について検討する。
本研究は、悪意のある指示をほとんど出さず、データ中毒によるモデル行動を制御することによって、攻撃者がバックドアを注入できることを実証する。
論文 参考訳(メタデータ) (2023-05-24T04:27:21Z) - An Embarrassingly Simple Backdoor Attack on Self-supervised Learning [52.28670953101126]
自己教師付き学習(SSL)は、ラベルに頼ることなく、複雑なデータの高品質な表現を学習することができる。
SSLのバックドア攻撃に対する脆弱性について検討する。
論文 参考訳(メタデータ) (2022-10-13T20:39:21Z) - SparseFed: Mitigating Model Poisoning Attacks in Federated Learning with
Sparsification [24.053704318868043]
モデル中毒攻撃では、攻撃者は"poisoned"アップデートをアップロードすることで、ターゲットのサブタスクのパフォーマンスを低下させる。
本稿では,グローバルなトップk更新スペーシフィケーションとデバイスレベルのクリッピング勾配を利用して,モデル中毒攻撃を緩和する新しいディフェンスであるalgonameを紹介する。
論文 参考訳(メタデータ) (2021-12-12T16:34:52Z) - How Robust are Randomized Smoothing based Defenses to Data Poisoning? [66.80663779176979]
我々は、トレーニングデータの品質の重要性を強調する堅牢な機械学習モデルに対して、これまで認識されていなかった脅威を提示します。
本稿では,二段階最適化に基づく新たなデータ中毒攻撃法を提案し,ロバストな分類器のロバスト性を保証する。
我々の攻撃は、被害者が最先端のロバストな訓練方法を用いて、ゼロからモデルを訓練しても効果的である。
論文 参考訳(メタデータ) (2020-12-02T15:30:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。