論文の概要: Essential Features: Reducing the Attack Surface of Adversarial
Perturbations with Robust Content-Aware Image Preprocessing
- arxiv url: http://arxiv.org/abs/2012.01699v1
- Date: Thu, 3 Dec 2020 04:40:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-23 15:02:46.202221
- Title: Essential Features: Reducing the Attack Surface of Adversarial
Perturbations with Robust Content-Aware Image Preprocessing
- Title(参考訳): 基本的特徴:ロバストコンテンツ対応画像前処理による対向的摂動の攻撃面の低減
- Authors: Ryan Feng, Wu-chi Feng, Atul Prakash
- Abstract要約: 画像に摂動を加えることで、機械学習モデルを騙して誤った予測をすることができる。
このような摂動に対する防御の1つのアプローチは、摂動の影響を取り除くために画像前処理関数を適用することである。
本稿では,イメージをロバストな特徴空間に変換する,Essential Featuresと呼ばれる新しい画像前処理手法を提案する。
- 参考スコア(独自算出の注目度): 5.831840281853604
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversaries are capable of adding perturbations to an image to fool machine
learning models into incorrect predictions. One approach to defending against
such perturbations is to apply image preprocessing functions to remove the
effects of the perturbation. Existing approaches tend to be designed
orthogonally to the content of the image and can be beaten by adaptive attacks.
We propose a novel image preprocessing technique called Essential Features that
transforms the image into a robust feature space that preserves the main
content of the image while significantly reducing the effects of the
perturbations. Specifically, an adaptive blurring strategy that preserves the
main edge features of the original object along with a k-means color reduction
approach is employed to simplify the image to its k most representative colors.
This approach significantly limits the attack surface for adversaries by
limiting the ability to adjust colors while preserving pertinent features of
the original image. We additionally design several adaptive attacks and find
that our approach remains more robust than previous baselines. On CIFAR-10 we
achieve 64% robustness and 58.13% robustness on RESISC45, raising robustness by
over 10% versus state-of-the-art adversarial training techniques against
adaptive white-box and black-box attacks. The results suggest that strategies
that retain essential features in images by adaptive processing of the content
hold promise as a complement to adversarial training for boosting robustness
against adversarial inputs.
- Abstract(参考訳): 画像に摂動を加えることで、不正な機械学習モデルに誤った予測を加えることができる。
このような摂動から防御する一つのアプローチは、摂動の影響を取り除くために画像前処理関数を適用することである。
既存のアプローチは画像の内容と直交して設計されがちであり、適応攻撃によって打ち負かすことができる。
本稿では,画像の主成分を保存しつつ,摂動の影響を著しく低減するロバストな特徴空間へ変換する,本質的特徴量と呼ばれる新しい画像前処理手法を提案する。
具体的には、k平均色低減手法とともに、元のオブジェクトの主エッジ特徴を保存する適応的ぼかし戦略を用いて、画像を最も代表的な色に単純化する。
このアプローチは、元の画像の関連する特徴を保ちながら色を調整する能力を制限することにより、敵に対する攻撃面を著しく制限する。
さらに、いくつかのアダプティブアタックを設計し、我々のアプローチが以前のベースラインよりも堅牢であることを確認する。
CIFAR-10では64%の堅牢性と58.13%の堅牢性をRESISC45で達成し、適応的なホワイトボックスやブラックボックス攻撃に対する最先端の対人訓練技術に対して10%以上の堅牢性を向上した。
以上の結果から,コンテンツ適応処理による画像に不可欠な特徴を保ち続ける戦略は,敵対的入力に対する堅牢性を高めるための敵対的トレーニングの補完となる可能性が示唆された。
関連論文リスト
- Robust Network Learning via Inverse Scale Variational Sparsification [55.64935887249435]
時間連続な逆スケール空間の定式化において、逆スケールの変動スペーサー化フレームワークを導入する。
周波数ベースの手法とは異なり、我々の手法は小さな特徴を滑らかにすることでノイズを除去するだけでなく、ノイズを除去する。
各種騒音に対する頑健性の向上によるアプローチの有効性を示す。
論文 参考訳(メタデータ) (2024-09-27T03:17:35Z) - ZePo: Zero-Shot Portrait Stylization with Faster Sampling [61.14140480095604]
本稿では,4つのサンプリングステップでコンテンツとスタイルの融合を実現する拡散モデルに基づく,インバージョンフリーなポートレートスタイリングフレームワークを提案する。
本稿では,一貫性機能における冗長な特徴をマージする機能統合戦略を提案し,注意制御の計算負荷を低減させる。
論文 参考訳(メタデータ) (2024-08-10T08:53:41Z) - Towards Robust Image Stitching: An Adaptive Resistance Learning against
Compatible Attacks [66.98297584796391]
画像縫合は、様々な視点から捉えた画像をシームレスに単一の視野画像に統合する。
一対の撮像画像が与えられたとき、人間の視覚システムに気づかない微妙な摂動と歪みは、対応の一致を攻撃しがちである。
本稿では,敵対的攻撃に対する画像縫合の堅牢性向上に向けた最初の試みについて述べる。
論文 参考訳(メタデータ) (2024-02-25T02:36:33Z) - IRAD: Implicit Representation-driven Image Resampling against Adversarial Attacks [16.577595936609665]
本稿では,画像再サンプリングという,敵対的攻撃に対する新たなアプローチを提案する。
画像再サンプリングは、幾何学的変換によって指定されたシーンの再調整や再レンダリングの過程をシミュレートして、離散画像を新しい画像に変換する。
本手法は,クリーンな画像の精度を維持しつつ,多様な深層モデルの様々な攻撃に対する対角的堅牢性を著しく向上することを示す。
論文 参考訳(メタデータ) (2023-10-18T11:19:32Z) - PAIF: Perception-Aware Infrared-Visible Image Fusion for Attack-Tolerant
Semantic Segmentation [50.556961575275345]
対向シーンにおけるセグメンテーションの堅牢性を促進するための認識認識型融合フレームワークを提案する。
我々は,先進の競争相手に比べて15.3% mIOUの利得で,ロバスト性を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2023-08-08T01:55:44Z) - Content-based Unrestricted Adversarial Attack [53.181920529225906]
本稿では,コンテンツベース非制限攻撃という新たな非制限攻撃フレームワークを提案する。
自然像を表す低次元多様体を利用することで、像を多様体上に写像し、その逆方向に沿って最適化する。
論文 参考訳(メタデータ) (2023-05-18T02:57:43Z) - Reverse Engineering of Imperceptible Adversarial Image Perturbations [43.87341855153572]
REDの問題を形式化し、REDのアプローチ設計に不可欠な原則のセットを特定します。
そこで我々は,CDD-RED と呼ばれる新しいクラス識別型Denoising RED フレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-26T19:52:40Z) - Adaptive Perturbation for Adversarial Attack [50.77612889697216]
そこで本研究では,新たな逆例に対する勾配に基づく攻撃手法を提案する。
逆方向の摂動を発生させるために,スケーリング係数を用いた正確な勾配方向を用いる。
本手法は, 高い伝達性を示し, 最先端の手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2021-11-27T07:57:41Z) - Self-Supervised Iterative Contextual Smoothing for Efficient Adversarial
Defense against Gray- and Black-Box Attack [24.66829920826166]
グレーボックスとブラックボックス攻撃に対する新しい入力変換に基づく対角防御法を提案する。
我々の防御には計算に費用がかかる敵の訓練は必要ないが、入力変換によってその堅牢な精度にアプローチすることができる。
論文 参考訳(メタデータ) (2021-06-22T09:51:51Z) - Context-Aware Image Denoising with Auto-Threshold Canny Edge Detection
to Suppress Adversarial Perturbation [0.8021197489470756]
本論文では,新しいコンテキスト認識画像デノイジングアルゴリズムを提案する。
適応画像スムージング技術とカラーリダクション技術を組み合わせて、逆画像からの摂動を除去します。
提案手法は, 敵の攻撃による敵の摂動を低減し, 深部畳み込みニューラルネットワークモデルの堅牢性を向上することを示す。
論文 参考訳(メタデータ) (2021-01-14T19:15:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。