論文の概要: Countering Adversarial Examples: Combining Input Transformation and
Noisy Training
- arxiv url: http://arxiv.org/abs/2106.13394v1
- Date: Fri, 25 Jun 2021 02:46:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-28 23:23:48.527305
- Title: Countering Adversarial Examples: Combining Input Transformation and
Noisy Training
- Title(参考訳): 逆算の例:入力変換と雑音学習の組み合わせ
- Authors: Cheng Zhang, Pan Gao
- Abstract要約: 敵の例は、セキュリティに敏感な画像認識タスクに脅威をもたらす。
従来のJPEG圧縮はこれらの攻撃を防御するには不十分だが、画像の良さに突然の精度低下を引き起こす可能性がある。
我々は従来のJPEG圧縮アルゴリズムを改良し、NNにとってより好ましいものにしている。
- 参考スコア(独自算出の注目度): 15.561916630351947
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent studies have shown that neural network (NN) based image classifiers
are highly vulnerable to adversarial examples, which poses a threat to
security-sensitive image recognition task. Prior work has shown that JPEG
compression can combat the drop in classification accuracy on adversarial
examples to some extent. But, as the compression ratio increases, traditional
JPEG compression is insufficient to defend those attacks but can cause an
abrupt accuracy decline to the benign images. In this paper, with the aim of
fully filtering the adversarial perturbations, we firstly make modifications to
traditional JPEG compression algorithm which becomes more favorable for NN.
Specifically, based on an analysis of the frequency coefficient, we design a
NN-favored quantization table for compression. Considering compression as a
data augmentation strategy, we then combine our model-agnostic preprocess with
noisy training. We fine-tune the pre-trained model by training with images
encoded at different compression levels, thus generating multiple classifiers.
Finally, since lower (higher) compression ratio can remove both perturbations
and original features slightly (aggressively), we use these trained multiple
models for model ensemble. The majority vote of the ensemble of models is
adopted as final predictions. Experiments results show our method can improve
defense efficiency while maintaining original accuracy.
- Abstract(参考訳): 近年の研究では、ニューラルネットワーク(nn)ベースの画像分類器は、セキュリティに敏感な画像認識タスクの脅威となる敵の例に非常に脆弱であることが示されている。
これまでの研究では、JPEG圧縮はある程度の逆例の分類精度の低下に対処できることを示した。
しかし、圧縮比が大きくなるにつれて、従来のJPEG圧縮はこれらの攻撃を防御するには不十分である。
本稿では,逆方向の摂動を完全にフィルタリングすることを目的として,NNに好適な従来のJPEG圧縮アルゴリズムを改良する。
具体的には,周波数係数の解析に基づいて圧縮のためのnn-favored quantization tableを設計する。
データ拡張戦略として圧縮を考えると、モデルに依存しない前処理とノイズの多いトレーニングを組み合わせる。
異なる圧縮レベルで符号化された画像を用いてトレーニングすることにより,事前学習したモデルを微調整し,複数の分類器を生成する。
最後に、低(高)圧縮比は摂動と原特徴をわずかに除去できるので、モデルアンサンブルのためにこれらの訓練された複数のモデルを使用する。
モデルのアンサンブルの大多数の投票は最終予測として採用される。
実験の結果,本手法はオリジナル精度を維持しつつ防御効率を向上させることができた。
関連論文リスト
- A Training-Free Defense Framework for Robust Learned Image Compression [48.41990144764295]
本研究では,学習した画像圧縮モデルの敵攻撃に対する堅牢性について検討する。
簡単な画像変換関数をベースとした無訓練防御手法を提案する。
論文 参考訳(メタデータ) (2024-01-22T12:50:21Z) - Transferable Learned Image Compression-Resistant Adversarial
Perturbations [69.79762292033553]
敵対的攻撃は容易に画像分類システムを破壊し、DNNベースの認識タスクの脆弱性を明らかにする。
我々は、学習した画像圧縮機を前処理モジュールとして利用する画像分類モデルをターゲットにした新しいパイプラインを提案する。
論文 参考訳(メタデータ) (2024-01-06T03:03:28Z) - Backdoor Attacks Against Deep Image Compression via Adaptive Frequency
Trigger [106.10954454667757]
本稿では,学習画像圧縮モデルに対する複数のトリガーを用いたバックドアアタックを提案する。
既存の圧縮システムや標準で広く使われている離散コサイン変換(DCT)に動機付けられ,周波数ベースのトリガーインジェクションモデルを提案する。
論文 参考訳(メタデータ) (2023-02-28T15:39:31Z) - Crowd Counting on Heavily Compressed Images with Curriculum Pre-Training [90.76576712433595]
ディープニューラルネットワークによって処理された画像に損失圧縮を適用することで、大幅な精度低下につながる可能性がある。
カリキュラム学習のパラダイムに着想を得て,圧縮画像の群集カウントのためのカリキュラム事前学習(CPT)と呼ばれる新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2022-08-15T08:43:21Z) - Estimating the Resize Parameter in End-to-end Learned Image Compression [50.20567320015102]
本稿では,最近の画像圧縮モデルの速度歪みトレードオフをさらに改善する検索自由化フレームワークについて述べる。
提案手法により,Bjontegaard-Deltaレート(BD-rate)を最大10%向上させることができる。
論文 参考訳(メタデータ) (2022-04-26T01:35:02Z) - Post-Training Quantization for Cross-Platform Learned Image Compression [15.67527732099067]
学習した画像圧縮が従来の画像符号化技術より優れていることが確認されている。
考慮すべき最も重要な問題の1つは、非決定論的計算である。
本稿では,学習後量子化の導入によってこの問題を解決することを提案する。
論文 参考訳(メタデータ) (2022-02-15T15:41:12Z) - Implicit Neural Representations for Image Compression [103.78615661013623]
Inlicit Neural Representations (INRs) は、様々なデータ型の新規かつ効果的な表現として注目されている。
量子化、量子化を考慮した再学習、エントロピー符号化を含むINRに基づく最初の包括的圧縮パイプラインを提案する。
我々は、INRによるソース圧縮に対する我々のアプローチが、同様の以前の作業よりも大幅に優れていることに気付きました。
論文 参考訳(メタデータ) (2021-12-08T13:02:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。