論文の概要: Learning the Unlearnable: Adversarial Augmentations Suppress Unlearnable
Example Attacks
- arxiv url: http://arxiv.org/abs/2303.15127v1
- Date: Mon, 27 Mar 2023 12:00:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-28 15:32:01.992973
- Title: Learning the Unlearnable: Adversarial Augmentations Suppress Unlearnable
Example Attacks
- Title(参考訳): unlearnableを学習する: 不可解な例攻撃を抑制する敵対的拡張
- Authors: Tianrui Qin, Xitong Gao, Juanjuan Zhao, Kejiang Ye, Cheng-Zhong Xu
- Abstract要約: 学習不能な例攻撃は、ディープラーニングモデルをトレーニングするための許可されていない使用に対して、公開データを保護するために使用することができる。
UEraser法は、未学習の事例攻撃に対する現在の防御よりも優れる。
私たちのコードはオープンソースで、ディープラーニングコミュニティで利用できます。
- 参考スコア(独自算出の注目度): 21.633448874100004
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Unlearnable example attacks are data poisoning techniques that can be used to
safeguard public data against unauthorized use for training deep learning
models. These methods add stealthy perturbations to the original image, thereby
making it difficult for deep learning models to learn from these training data
effectively. Current research suggests that adversarial training can, to a
certain degree, mitigate the impact of unlearnable example attacks, while
common data augmentation methods are not effective against such poisons.
Adversarial training, however, demands considerable computational resources and
can result in non-trivial accuracy loss. In this paper, we introduce the
UEraser method, which outperforms current defenses against different types of
state-of-the-art unlearnable example attacks through a combination of effective
data augmentation policies and loss-maximizing adversarial augmentations. In
stark contrast to the current SOTA adversarial training methods, UEraser uses
adversarial augmentations, which extends beyond the confines of $ \ell_p $
perturbation budget assumed by current unlearning attacks and defenses. It also
helps to improve the model's generalization ability, thus protecting against
accuracy loss. UEraser wipes out the unlearning effect with error-maximizing
data augmentations, thus restoring trained model accuracies. Interestingly,
UEraser-Lite, a fast variant without adversarial augmentations, is also highly
effective in preserving clean accuracies. On challenging unlearnable CIFAR-10,
CIFAR-100, SVHN, and ImageNet-subset datasets produced with various attacks, it
achieves results that are comparable to those obtained during clean training.
We also demonstrate its efficacy against possible adaptive attacks. Our code is
open source and available to the deep learning community:
https://github.com/lafeat/ueraser.
- Abstract(参考訳): 学習不能な攻撃は、深層学習モデルのトレーニングに許可されていない使用に対して、公開データを保護するために使用できるデータ中毒技術である。
これらの方法は、元の画像にステルスな摂動を加えるため、ディープラーニングモデルがこれらのトレーニングデータから効果的に学習することが困難になる。
現在の研究では、敵の訓練は、ある程度は、未発生のサンプル攻撃の影響を軽減することができるが、一般的なデータ増強法はそのような毒には効果がないことが示唆されている。
しかし、敵対的な訓練はかなりの計算資源を必要とし、非自明な正確性を失う可能性がある。
本稿では,実効的なデータ拡張ポリシーと損失最大化の相乗効果を組み合わせることで,最先端の非学習的攻撃に対する現在の防御方法に勝るueraser法を提案する。
UEraserは、現在のSOTAの敵対的訓練方法とは対照的に、現在の未学習の攻撃や防御によって想定される摂動予算$ $ $ $ell_p を超えて、敵の増強を使用する。
また、モデルの一般化能力の向上にも寄与し、精度の低下を防ぐ。
UEraserは、エラー最大化データ拡張による未学習効果を排除し、トレーニング済みのモデル精度を回復する。
興味深いことに, UEraser-Liteは, 対向性増強を伴わない高速な変種であり, クリーンアキュラシーの保存にも有効である。
CIFAR-10、CIFAR-100、SVHN、および様々な攻撃で生成されたImageNet-subsetデータセットに挑戦し、クリーントレーニング中に得られた結果に匹敵する結果を得る。
また,適応攻撃に対する効果を示す。
私たちのコードはオープンソースで、ディープラーニングコミュニティで利用可能です。
関連論文リスト
- Improved Adversarial Training Through Adaptive Instance-wise Loss
Smoothing [5.1024659285813785]
敵の訓練は、このような敵の攻撃に対する最も成功した防御であった。
本稿では,新たな対人訓練手法を提案する。
本手法は,$ell_infty$-norm制約攻撃に対する最先端のロバスト性を実現する。
論文 参考訳(メタデータ) (2023-03-24T15:41:40Z) - Efficient Adversarial Training With Data Pruning [26.842714298874192]
我々は,データプルーニングが,対人訓練の収束と信頼性の向上につながることを示す。
一部の設定では、データのプルーニングは両方の世界の利点をもたらします。
論文 参考訳(メタデータ) (2022-07-01T23:54:46Z) - Distributed Adversarial Training to Robustify Deep Neural Networks at
Scale [100.19539096465101]
現在のディープニューラルネットワーク(DNN)は、入力に対する敵の摂動が分類を変更したり操作したりする敵の攻撃に対して脆弱である。
このような攻撃を防御するために、敵の訓練(AT)として知られる効果的なアプローチが、堅牢な訓練を緩和するために示されている。
複数のマシンにまたがって実装された大規模バッチ対逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-13T15:39:43Z) - Autoregressive Perturbations for Data Poisoning [54.205200221427994]
ソーシャルメディアからのデータスクレイピングは、不正なデータの使用に関する懸念が高まっている。
データ中毒攻撃は、スクラップ対策として提案されている。
より広範なデータセットにアクセスせずに有毒なデータを生成できる自動回帰(AR)中毒を導入する。
論文 参考訳(メタデータ) (2022-06-08T06:24:51Z) - Learning to Learn Transferable Attack [77.67399621530052]
転送逆行攻撃は非自明なブラックボックス逆行攻撃であり、サロゲートモデル上で敵の摂動を発生させ、そのような摂動を被害者モデルに適用することを目的としている。
本研究では,データとモデル拡張の両方から学習することで,敵の摂動をより一般化する学習可能な攻撃学習法(LLTA)を提案する。
提案手法の有効性を実証し, 現状の手法と比較して, 12.85%のトランスファー攻撃の成功率で検証した。
論文 参考訳(メタデータ) (2021-12-10T07:24:21Z) - Accumulative Poisoning Attacks on Real-time Data [56.96241557830253]
我々は、よく設計されたが簡単な攻撃戦略が、中毒効果を劇的に増幅できることを示します。
我々の研究は、よく設計されたが簡単な攻撃戦略が、中毒効果を劇的に増幅できることを検証する。
論文 参考訳(メタデータ) (2021-06-18T08:29:53Z) - Mitigating the Impact of Adversarial Attacks in Very Deep Networks [10.555822166916705]
Deep Neural Network (DNN)モデルにはセキュリティに関する脆弱性がある。
データ中毒による摂動攻撃は、モデルに偽データを注入する複雑な敵対攻撃である。
そこで本研究では,攻撃に依存しない防御手法を提案する。
論文 参考訳(メタデータ) (2020-12-08T21:25:44Z) - How Robust are Randomized Smoothing based Defenses to Data Poisoning? [66.80663779176979]
我々は、トレーニングデータの品質の重要性を強調する堅牢な機械学習モデルに対して、これまで認識されていなかった脅威を提示します。
本稿では,二段階最適化に基づく新たなデータ中毒攻撃法を提案し,ロバストな分類器のロバスト性を保証する。
我々の攻撃は、被害者が最先端のロバストな訓練方法を用いて、ゼロからモデルを訓練しても効果的である。
論文 参考訳(メタデータ) (2020-12-02T15:30:21Z) - Progressive Defense Against Adversarial Attacks for Deep Learning as a
Service in Internet of Things [9.753864027359521]
一部のディープニューラルネットワーク(DNN)は、比較的小さいが逆方向の摂動を入力に追加することで容易に誤認することができる。
本稿では, 対人攻撃に対するプログレッシブ・ディフェンス(PDAAA)と呼ばれる防衛戦略を提案し, 対人画素変異を効果的かつ効果的に除去する。
その結果、モデルトレーニングのコストを平均50%削減しながら、最先端技術よりも優れています。
論文 参考訳(メタデータ) (2020-10-15T06:40:53Z) - Adversarial Self-Supervised Contrastive Learning [62.17538130778111]
既存の対数学習アプローチは、主にクラスラベルを使用して、誤った予測につながる対数サンプルを生成する。
本稿では,未ラベルデータに対する新たな逆攻撃を提案する。これにより,モデルが摂動データサンプルのインスタンスレベルのアイデンティティを混乱させる。
ラベル付きデータなしで頑健なニューラルネットワークを逆さまにトレーニングするための,自己教師付きコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-13T08:24:33Z) - A Separation Result Between Data-oblivious and Data-aware Poisoning
Attacks [40.044030156696145]
殺人攻撃は、機械学習アルゴリズムに対する重要なセキュリティ脅威として浮上している。
強力な毒殺攻撃のいくつかは、トレーニングデータの完全な知識を必要とする。
本研究は,全情報相手が最適攻撃者よりも確実に強いことを示す。
論文 参考訳(メタデータ) (2020-03-26T16:40:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。