論文の概要: Trainwreck: A damaging adversarial attack on image classifiers
- arxiv url: http://arxiv.org/abs/2311.14772v2
- Date: Tue, 11 Jun 2024 09:53:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-13 00:48:47.079065
- Title: Trainwreck: A damaging adversarial attack on image classifiers
- Title(参考訳): Trainwreck:イメージ分類器に対する敵対的攻撃の被害
- Authors: Jan Zahálka,
- Abstract要約: 本稿では,ターゲットコンピュータビジョン(CV)モデルにダメージを与える敵攻撃(DAA)について検討する。
DAAは脅威モデルを定義し、コスト関数DAAを最大化し、成功のための3つの要件 – 有効性、ステルス、カスタマイズ性 – を設定することで形式化される。
DAAの先駆者として,訓練データに類似したクラスのデータを混在させる列車時攻撃であるTrawreckを提案する。
- 参考スコア(独自算出の注目度): 2.469487940636932
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Adversarial attacks are an important security concern for computer vision (CV). As CV models are becoming increasingly valuable assets in applied practice, disrupting them is emerging as a form of economic sabotage. This paper opens up the exploration of damaging adversarial attacks (DAAs) that seek to damage target CV models. DAAs are formalized by defining the threat model, the cost function DAAs maximize, and setting three requirements for success: potency, stealth, and customizability. As a pioneer DAA, this paper proposes Trainwreck, a train-time attack that conflates the data of similar classes in the training data using stealthy ($\epsilon \leq 8/255$) class-pair universal perturbations obtained from a surrogate model. Trainwreck is a black-box, transferable attack: it requires no knowledge of the target architecture, and a single poisoned dataset degrades the performance of any model trained on it. The experimental evaluation on CIFAR-10 and CIFAR-100 and various model architectures (EfficientNetV2, ResNeXt-101, and a finetuned ViT-L-16) demonstrates Trainwreck's efficiency. Trainwreck achieves similar or better potency compared to the data poisoning state of the art and is fully customizable by the poison rate parameter. Finally, data redundancy with hashing is identified as a reliable defense against Trainwreck or similar DAAs. The code is available at https://github.com/JanZahalka/trainwreck.
- Abstract(参考訳): 敵攻撃はコンピュータビジョン(CV)にとって重要なセキュリティ上の問題である。
CVモデルは応用実践においてますます価値ある資産となりつつあり、その破壊は経済破壊の一形態として現れつつある。
本稿では,標的CVモデルに損傷を与える敵攻撃 (DAA) の探索を行う。
DAAは脅威モデルを定義し、コスト関数DAAを最大化し、成功のための3つの要件 – 有効性、ステルス、カスタマイズ性 – を設定することで形式化される。
DAAのパイオニアであるTrawreck氏は、スチークシー(\epsilon \leq 8/255$)クラスペアの普遍的摂動をサロゲートモデルから得られる訓練データに類似したクラスのデータを混在させる列車時攻撃を提案する。
Trainwreckはブラックボックスで転送可能な攻撃で、ターゲットアーキテクチャの知識を必要とせず、単一の有毒データセットがトレーニングされたモデルのパフォーマンスを劣化させる。
CIFAR-10とCIFAR-100および様々なモデルアーキテクチャ(EfficientNetV2、ResNeXt-101、微調整されたViT-L-16)に関する実験的評価は、Trawreckの有効性を示している。
Trainwreckは、最先端のデータ中毒と比較して、同様の、あるいはより良い有効性を実現し、有毒率パラメータによって完全にカスタマイズできる。
最後に、ハッシュによるデータの冗長性は、Trawreckや同様のDAAに対する信頼性の高い防御として識別される。
コードはhttps://github.com/JanZahalka/trainwreck.comで公開されている。
関連論文リスト
- Downstream Transfer Attack: Adversarial Attacks on Downstream Models with Pre-trained Vision Transformers [95.22517830759193]
本稿では、事前訓練されたViTモデルから下流タスクへのこのような逆の脆弱性の伝達可能性について検討する。
DTAは攻撃成功率(ASR)が90%を超え、既存の手法をはるかに上回っていることを示す。
論文 参考訳(メタデータ) (2024-08-03T08:07:03Z) - Defense Against Model Extraction Attacks on Recommender Systems [53.127820987326295]
本稿では、モデル抽出攻撃に対するリコメンデータシステムに対する防御のために、グラディエントベースのランキング最適化(GRO)を導入する。
GROは、攻撃者の代理モデルの損失を最大化しながら、保護対象モデルの損失を最小限にすることを目的としている。
その結果,モデル抽出攻撃に対するGROの防御効果は良好であった。
論文 参考訳(メタデータ) (2023-10-25T03:30:42Z) - Fault Injection and Safe-Error Attack for Extraction of Embedded Neural Network Models [1.2499537119440245]
モノのインターネット(IoT)における32ビットマイクロコントローラの組み込みディープニューラルネットワークモデルに焦点をあてる。
攻撃を成功させるためのブラックボックス手法を提案する。
古典的畳み込みニューラルネットワークでは、1500個の入力で最も重要なビットの少なくとも90%を回復することに成功した。
論文 参考訳(メタデータ) (2023-08-31T13:09:33Z) - Isolation and Induction: Training Robust Deep Neural Networks against
Model Stealing Attacks [51.51023951695014]
既存のモデル盗難防衛は、被害者の後部確率に偽りの摂動を加え、攻撃者を誤解させる。
本稿では,モデルステルス防衛のための新規かつ効果的なトレーニングフレームワークである分離誘導(InI)を提案する。
モデルの精度を損なうモデル予測に摂動を加えるのとは対照的に、我々はモデルを訓練して、盗むクエリに対して非形式的なアウトプットを生成する。
論文 参考訳(メタデータ) (2023-08-02T05:54:01Z) - Learning the Unlearnable: Adversarial Augmentations Suppress Unlearnable
Example Attacks [21.633448874100004]
学習不能な例攻撃は、ディープラーニングモデルをトレーニングするための許可されていない使用に対して、公開データを保護するために使用することができる。
UEraser法は、未学習の事例攻撃に対する現在の防御よりも優れる。
私たちのコードはオープンソースで、ディープラーニングコミュニティで利用できます。
論文 参考訳(メタデータ) (2023-03-27T12:00:54Z) - Accumulative Poisoning Attacks on Real-time Data [56.96241557830253]
我々は、よく設計されたが簡単な攻撃戦略が、中毒効果を劇的に増幅できることを示します。
我々の研究は、よく設計されたが簡単な攻撃戦略が、中毒効果を劇的に増幅できることを検証する。
論文 参考訳(メタデータ) (2021-06-18T08:29:53Z) - Delving into Data: Effectively Substitute Training for Black-box Attack [84.85798059317963]
本稿では,知識盗むプロセスで使用されるデータの分散設計に焦点をあてた,新しい視点代替トレーニングを提案する。
これら2つのモジュールの組み合わせにより、代替モデルとターゲットモデルの一貫性がさらに向上し、敵攻撃の有効性が大幅に向上する。
論文 参考訳(メタデータ) (2021-04-26T07:26:29Z) - Mitigating the Impact of Adversarial Attacks in Very Deep Networks [10.555822166916705]
Deep Neural Network (DNN)モデルにはセキュリティに関する脆弱性がある。
データ中毒による摂動攻撃は、モデルに偽データを注入する複雑な敵対攻撃である。
そこで本研究では,攻撃に依存しない防御手法を提案する。
論文 参考訳(メタデータ) (2020-12-08T21:25:44Z) - How Robust are Randomized Smoothing based Defenses to Data Poisoning? [66.80663779176979]
我々は、トレーニングデータの品質の重要性を強調する堅牢な機械学習モデルに対して、これまで認識されていなかった脅威を提示します。
本稿では,二段階最適化に基づく新たなデータ中毒攻撃法を提案し,ロバストな分類器のロバスト性を保証する。
我々の攻撃は、被害者が最先端のロバストな訓練方法を用いて、ゼロからモデルを訓練しても効果的である。
論文 参考訳(メタデータ) (2020-12-02T15:30:21Z) - Towards Class-Oriented Poisoning Attacks Against Neural Networks [1.14219428942199]
機械学習システムに対する攻撃は、トレーニングデータセットに悪意のあるサンプルを意図的に注入することで、モデルのパフォーマンスを損なう。
そこで本研究では, 破損したモデルに対して, 2つの特定の予測を強制的に行うクラス指向中毒攻撃を提案する。
逆効果の最大化と、有毒なデータ生成の計算複雑性の低減を図るため、勾配に基づくフレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-31T19:27:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。