論文の概要: Encryption Inspired Adversarial Defense for Visual Classification
- arxiv url: http://arxiv.org/abs/2005.07998v1
- Date: Sat, 16 May 2020 14:18:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-02 13:05:48.311459
- Title: Encryption Inspired Adversarial Defense for Visual Classification
- Title(参考訳): 視覚分類のための暗号化による対人防御
- Authors: MaungMaung AprilPyone and Hitoshi Kiya
- Abstract要約: 本稿では,画像暗号化方式に触発された新たな敵防御手法を提案する。
提案手法は秘密鍵を用いたブロックワイズ画素シャッフル方式を用いる。
精度が高い(クリーン画像91.55、CIFAR-10データセットでノイズ距離8/255の逆例89.66)。
- 参考スコア(独自算出の注目度): 17.551718914117917
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Conventional adversarial defenses reduce classification accuracy whether or
not a model is under attacks. Moreover, most of image processing based defenses
are defeated due to the problem of obfuscated gradients. In this paper, we
propose a new adversarial defense which is a defensive transform for both
training and test images inspired by perceptual image encryption methods. The
proposed method utilizes a block-wise pixel shuffling method with a secret key.
The experiments are carried out on both adaptive and non-adaptive maximum-norm
bounded white-box attacks while considering obfuscated gradients. The results
show that the proposed defense achieves high accuracy (91.55 %) on clean images
and (89.66 %) on adversarial examples with noise distance of 8/255 on CIFAR-10
dataset. Thus, the proposed defense outperforms state-of-the-art adversarial
defenses including latent adversarial training, adversarial training and
thermometer encoding.
- Abstract(参考訳): 従来の敵防衛は、モデルが攻撃を受けているかどうかの分類精度を低下させる。
さらに, 画像処理による防御は, 難解な勾配の問題により, ほとんど打ち負かされる。
本稿では,知覚的画像暗号化法に触発された画像の訓練とテストの両方に対する防御的変換である新たな防御手法を提案する。
提案手法は秘密鍵を用いたブロックワイズ画素シャッフル方式を用いる。
この実験は、難解勾配を考慮した適応的および非適応的最大ノルム有界ホワイトボックス攻撃において行われた。
その結果,CIFAR-10データセット上でのノイズ距離8/255の対向例において,クリーンな画像に対して高い精度 (91.55 %) を達成することができた。
このようにして、提案した防御は、潜伏した対人訓練、対人訓練、温度計符号化など、最先端の対人防御よりも優れる。
関連論文リスト
- Improving Adversarial Robustness via Decoupled Visual Representation Masking [65.73203518658224]
本稿では,特徴分布の観点から,ロバストな特徴の2つの新しい特性を強調した。
現状の防衛手法は、上記の2つの問題にうまく対処することを目的としている。
具体的には、分離された視覚的表現マスキングに基づく、シンプルだが効果的な防御法を提案する。
論文 参考訳(メタデータ) (2024-06-16T13:29:41Z) - Anomaly Unveiled: Securing Image Classification against Adversarial
Patch Attacks [3.6275442368775512]
敵対的パッチ攻撃は、ディープラーニングシステムの実践的な展開に重大な脅威をもたらす。
本稿では,画像情報の分布における逆パッチの異常としての挙動について検討する。
提案する防御機構は,DBSCANと呼ばれるクラスタリング技術を用いて,異常な画像セグメントを分離する。
論文 参考訳(メタデータ) (2024-02-09T08:52:47Z) - Adversarial Defense via Image Denoising with Chaotic Encryption [65.48888274263756]
攻撃者には秘密鍵以外の全てを利用できると仮定する新しい防御法を提案する。
我々のフレームワークは、離散化ベイカーマップによる暗号化と併用した画像復号化手法を用いている。
論文 参考訳(メタデータ) (2022-03-19T10:25:02Z) - Adversarially Robust Classification by Conditional Generative Model
Inversion [4.913248451323163]
本稿では,攻撃の事前知識を仮定することなく,勾配を難読化せず,構造的に堅牢な分類モデルを提案する。
提案手法は,未成熟な自然画像に基づいて訓練された条件生成器を「反転」する最適化問題である。
我々のモデルはブラックボックス攻撃に対して非常に堅牢であり、ホワイトボックス攻撃に対するロバスト性を改善したことを実証する。
論文 参考訳(メタデータ) (2022-01-12T23:11:16Z) - Error Diffusion Halftoning Against Adversarial Examples [85.11649974840758]
敵対的な例には、深いニューラルネットワークを誤った予測にだますことができる慎重に作られた摂動が含まれます。
誤り拡散のハーフトン化に基づく新しい画像変換防御を提案し、逆転の例に対して防御するための逆転訓練と組み合わせます。
論文 参考訳(メタデータ) (2021-01-23T07:55:02Z) - Adversarial Robustness by Design through Analog Computing and Synthetic
Gradients [80.60080084042666]
光コプロセッサにインスパイアされた敵攻撃に対する新しい防御機構を提案する。
ホワイトボックス設定では、我々の防御はランダム投影のパラメータを難読化することで機能する。
光学系におけるランダムプロジェクションとバイナライゼーションの組み合わせにより、様々な種類のブラックボックス攻撃に対するロバスト性も向上する。
論文 参考訳(メタデータ) (2021-01-06T16:15:29Z) - Ensemble of Models Trained by Key-based Transformed Images for
Adversarially Robust Defense Against Black-box Attacks [17.551718914117917]
ブロックワイズ変換された画像と秘密鍵を用いて、対向的に頑健な防御のために訓練されたモデルの投票アンサンブルを提案する。
鍵ベースの敵防衛は、勾配に基づく(ホワイトボックス)攻撃に対する最先端の防御よりも優れていた。
我々は,モデルの投票アンサンブルを用いて,ブラックボックス攻撃に対する堅牢性を高めることを目的としている。
論文 参考訳(メタデータ) (2020-11-16T02:48:37Z) - Attack Agnostic Adversarial Defense via Visual Imperceptible Bound [70.72413095698961]
本研究の目的は、目視攻撃と目視攻撃の両方に対して一定の範囲内で堅牢な防衛モデルを設計することである。
提案するディフェンスモデルは,MNIST,CIFAR-10,Tiny ImageNetデータベース上で評価される。
提案アルゴリズムは攻撃非依存であり,攻撃アルゴリズムの知識を必要としない。
論文 参考訳(メタデータ) (2020-10-25T23:14:26Z) - Block-wise Image Transformation with Secret Key for Adversarially Robust
Defense [17.551718914117917]
提案する変換を実現するために,Pixel Shuffling, Bit Flipping, FFX Encryptionの3つのアルゴリズムを開発した。
CIFAR-10とImageNetのデータセット上で、ブラックボックスとホワイトボックスの両方を用いて実験を行った。
提案したディフェンスは,適応攻撃下においてもクリーン画像の精度を高い精度で達成する。
論文 参考訳(メタデータ) (2020-10-02T06:07:12Z) - Online Alternate Generator against Adversarial Attacks [144.45529828523408]
ディープラーニングモデルは、実際の画像に準知覚可能なノイズを加えることによって合成される敵の例に非常に敏感である。
対象ネットワークのパラメータをアクセスしたり変更したりする必要のない,ポータブルな防御手法であるオンライン代替ジェネレータを提案する。
提案手法は,入力画像のスクラッチから別の画像をオンライン合成することで,対向雑音を除去・破壊する代わりに機能する。
論文 参考訳(メタデータ) (2020-09-17T07:11:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。