論文の概要: Ensemble of Models Trained by Key-based Transformed Images for
Adversarially Robust Defense Against Black-box Attacks
- arxiv url: http://arxiv.org/abs/2011.07697v1
- Date: Mon, 16 Nov 2020 02:48:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-25 00:23:30.541138
- Title: Ensemble of Models Trained by Key-based Transformed Images for
Adversarially Robust Defense Against Black-box Attacks
- Title(参考訳): ブラックボックス攻撃に対する敵対的ロバスト防御のためのキーベース変換画像によるモデルのアンサンブル
- Authors: MaungMaung AprilPyone and Hitoshi Kiya
- Abstract要約: ブロックワイズ変換された画像と秘密鍵を用いて、対向的に頑健な防御のために訓練されたモデルの投票アンサンブルを提案する。
鍵ベースの敵防衛は、勾配に基づく(ホワイトボックス)攻撃に対する最先端の防御よりも優れていた。
我々は,モデルの投票アンサンブルを用いて,ブラックボックス攻撃に対する堅牢性を高めることを目的としている。
- 参考スコア(独自算出の注目度): 17.551718914117917
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a voting ensemble of models trained by using block-wise
transformed images with secret keys for an adversarially robust defense.
Key-based adversarial defenses were demonstrated to outperform state-of-the-art
defenses against gradient-based (white-box) attacks. However, the key-based
defenses are not effective enough against gradient-free (black-box) attacks
without requiring any secret keys. Accordingly, we aim to enhance robustness
against black-box attacks by using a voting ensemble of models. In the proposed
ensemble, a number of models are trained by using images transformed with
different keys and block sizes, and then a voting ensemble is applied to the
models. In image classification experiments, the proposed defense is
demonstrated to defend state-of-the-art attacks. The proposed defense achieves
a clean accuracy of 95.56 % and an attack success rate of less than 9 % under
attacks with a noise distance of 8/255 on the CIFAR-10 dataset.
- Abstract(参考訳): 本稿では,ブロックワイズ変換された画像と秘密鍵を用いて,対向的に頑健な防御のために学習したモデルの投票アンサンブルを提案する。
鍵ベースの敵防衛は、勾配に基づく(ホワイトボックス)攻撃に対する最先端の防御よりも優れていた。
しかし、鍵ベースの防御は秘密鍵を必要とせず、グラデーションフリー(ブラックボックス)攻撃に対して十分効果がない。
そこで我々は,モデルの投票アンサンブルを用いて,ブラックボックス攻撃に対する堅牢性を高めることを目指している。
提案するアンサンブルでは,異なるキーとブロックサイズで変換された画像を用いて複数のモデルを訓練し,そのモデルに投票アンサンブルを適用する。
画像分類実験において、提案した防御は最先端の攻撃を防御する。
提案する防御は、cifar-10データセット上のノイズ距離8/255で、95.56 %、攻撃成功率9 %未満のクリーンな精度を達成している。
関連論文リスト
- Versatile Defense Against Adversarial Attacks on Image Recognition [2.9980620769521513]
現実の環境での敵の攻撃に対する防御は、アンチウイルスソフトの動作方法と比較することができる。
画像から画像への翻訳をベースとした防御手法が実現可能であると考えられる。
訓練されたモデルは、分類精度をほぼゼロから平均86%に改善した。
論文 参考訳(メタデータ) (2024-03-13T01:48:01Z) - A Random Ensemble of Encrypted Vision Transformers for Adversarially
Robust Defense [6.476298483207895]
ディープニューラルネットワーク(DNN)は、敵の例(AE)に弱いことがよく知られている。
ホワイトボックス攻撃とブラックボックス攻撃の双方に対してロバスト性を高めるために,暗号化されたモデルのランダムアンサンブルである視覚変換器(ViT)を用いた新しい手法を提案する。
実験では, 画像分類作業において, ホワイトボックス攻撃だけでなくブラックボックス攻撃に対しても頑健であることが実証された。
論文 参考訳(メタデータ) (2024-02-11T12:35:28Z) - MultiRobustBench: Benchmarking Robustness Against Multiple Attacks [86.70417016955459]
機械学習(ML)モデルに対するマルチアタックを検討するための,最初の統一フレームワークを提案する。
我々のフレームワークは、テストタイムの敵について異なるレベルの学習者の知識をモデル化することができる。
9種類の攻撃に対して16種類の防御モデルの有効性を評価した。
論文 参考訳(メタデータ) (2023-02-21T20:26:39Z) - Adversarial Defense via Image Denoising with Chaotic Encryption [65.48888274263756]
攻撃者には秘密鍵以外の全てを利用できると仮定する新しい防御法を提案する。
我々のフレームワークは、離散化ベイカーマップによる暗号化と併用した画像復号化手法を用いている。
論文 参考訳(メタデータ) (2022-03-19T10:25:02Z) - Fighting Gradients with Gradients: Dynamic Defenses against Adversarial
Attacks [72.59081183040682]
我々は,防御エントロピー最小化(dent)により,テスト中にモデルと入力に適応する動的防御を提案する。
dentは、CIFAR-10/100およびImageNetに対する、敵に訓練された防御と名指しで訓練されたモデルの堅牢性を改善する。
論文 参考訳(メタデータ) (2021-05-18T17:55:07Z) - Attack Agnostic Adversarial Defense via Visual Imperceptible Bound [70.72413095698961]
本研究の目的は、目視攻撃と目視攻撃の両方に対して一定の範囲内で堅牢な防衛モデルを設計することである。
提案するディフェンスモデルは,MNIST,CIFAR-10,Tiny ImageNetデータベース上で評価される。
提案アルゴリズムは攻撃非依存であり,攻撃アルゴリズムの知識を必要としない。
論文 参考訳(メタデータ) (2020-10-25T23:14:26Z) - Block-wise Image Transformation with Secret Key for Adversarially Robust
Defense [17.551718914117917]
提案する変換を実現するために,Pixel Shuffling, Bit Flipping, FFX Encryptionの3つのアルゴリズムを開発した。
CIFAR-10とImageNetのデータセット上で、ブラックボックスとホワイトボックスの両方を用いて実験を行った。
提案したディフェンスは,適応攻撃下においてもクリーン画像の精度を高い精度で達成する。
論文 参考訳(メタデータ) (2020-10-02T06:07:12Z) - Defense for Black-box Attacks on Anti-spoofing Models by Self-Supervised
Learning [71.17774313301753]
本研究では,自己指導型高水準表現の堅牢性について,敵攻撃に対する防御に利用して検討する。
ASVspoof 2019データセットの実験結果は、Mockingjayによって抽出されたハイレベルな表現が、敵の例の転送可能性を妨げることを示した。
論文 参考訳(メタデータ) (2020-06-05T03:03:06Z) - Encryption Inspired Adversarial Defense for Visual Classification [17.551718914117917]
本稿では,画像暗号化方式に触発された新たな敵防御手法を提案する。
提案手法は秘密鍵を用いたブロックワイズ画素シャッフル方式を用いる。
精度が高い(クリーン画像91.55、CIFAR-10データセットでノイズ距離8/255の逆例89.66)。
論文 参考訳(メタデータ) (2020-05-16T14:18:07Z) - (De)Randomized Smoothing for Certifiable Defense against Patch Attacks [136.79415677706612]
我々は、所定の画像とパッチ攻撃サイズを保証する、パッチ攻撃に対する認証可能な防御を導入する。
本手法はランダム化スムースなロバスト性スキームの幅広いクラスに関係している。
その結果,CIFAR-10およびImageNetに対するパッチ攻撃に対する認証済みの防御技術が確立した。
論文 参考訳(メタデータ) (2020-02-25T08:39:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。