論文の概要: Robust Real-World Image Super-Resolution against Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2208.00428v1
- Date: Sun, 31 Jul 2022 13:26:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-02 14:34:48.432758
- Title: Robust Real-World Image Super-Resolution against Adversarial Attacks
- Title(参考訳): 対敵攻撃に対するロバストな実世界画像超解像
- Authors: Jiutao Yue and Haofeng Li and Pengxu Wei and Guanbin Li and Liang Lin
- Abstract要約: 準知覚不可能な雑音を持つ逆画像サンプルは、深層学習SRモデルを脅かす可能性がある。
本稿では,現実のSRに対して,潜在的な敵対的雑音をランダムに消去する頑健なディープラーニングフレームワークを提案する。
提案手法は敵攻撃に敏感であり,既存のモデルや防御よりも安定なSR結果を示す。
- 参考スコア(独自算出の注目度): 115.04009271192211
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently deep neural networks (DNNs) have achieved significant success in
real-world image super-resolution (SR). However, adversarial image samples with
quasi-imperceptible noises could threaten deep learning SR models. In this
paper, we propose a robust deep learning framework for real-world SR that
randomly erases potential adversarial noises in the frequency domain of input
images or features. The rationale is that on the SR task clean images or
features have a different pattern from the attacked ones in the frequency
domain. Observing that existing adversarial attacks usually add high-frequency
noises to input images, we introduce a novel random frequency mask module that
blocks out high-frequency components possibly containing the harmful
perturbations in a stochastic manner. Since the frequency masking may not only
destroys the adversarial perturbations but also affects the sharp details in a
clean image, we further develop an adversarial sample classifier based on the
frequency domain of images to determine if applying the proposed mask module.
Based on the above ideas, we devise a novel real-world image SR framework that
combines the proposed frequency mask modules and the proposed adversarial
classifier with an existing super-resolution backbone network. Experiments show
that our proposed method is more insensitive to adversarial attacks and
presents more stable SR results than existing models and defenses.
- Abstract(参考訳): 近年,深層ニューラルネットワーク (dnn) は実世界画像スーパーレゾリューション (sr) で大きな成功を収めている。
しかし、準知覚不可能な雑音を持つ逆画像サンプルは、深層学習SRモデルを脅かす可能性がある。
本稿では,入力画像や特徴の周波数領域における潜在的な対向雑音をランダムに消去する,実世界のSRのための堅牢なディープラーニングフレームワークを提案する。
理論的には、SRタスクのクリーンな画像や特徴は、周波数領域の攻撃されたものとは異なるパターンを持つ。
既存の敵対的攻撃が入力画像に高周波ノイズを与えるのを観察し、確率的に有害な摂動を含む可能性のある高周波成分をブロックする新しいランダム周波数マスクモジュールを導入する。
周波数マスキングは, 逆方向の摂動を損なうだけでなく, クリーン画像のシャープな細部にも影響を及ぼすので, さらに, 画像の周波数領域に基づく逆方向のサンプル分類器を開発し, 提案したマスクモジュールを適用したかどうかを判定する。
本稿では,提案する周波数マスクモジュールと提案する逆分類器と既存の超解像バックボーンネットワークを組み合わせた,新たな実世界イメージsrフレームワークを考案する。
実験の結果,提案手法は敵攻撃に敏感であり,既存のモデルや防御よりも安定なSR結果を示すことがわかった。
関連論文リスト
- Low-Frequency Black-Box Backdoor Attack via Evolutionary Algorithm [12.711880028935315]
畳み込みニューラルネットワーク(CNN)はコンピュータビジョンタスクで成功したが、バックドア攻撃に弱い。
周波数スペクトルの低周波成分を最小限に摂動させる強力な低周波ブラックボックスバックドアアタック(LFBA)を提案する。
実世界のデータセットの実験は、画像処理操作と最先端のバックドア防御に対するLFBAの有効性と堅牢性を検証する。
論文 参考訳(メタデータ) (2024-02-23T23:36:36Z) - Breaking Free: How to Hack Safety Guardrails in Black-Box Diffusion Models! [52.0855711767075]
EvoSeedは、フォトリアリスティックな自然対向サンプルを生成するための進化戦略に基づくアルゴリズムフレームワークである。
我々は,CMA-ESを用いて初期種ベクトルの探索を最適化し,条件付き拡散モデルで処理すると,自然逆数サンプルをモデルで誤分類する。
実験の結果, 生成した対向画像は画像品質が高く, 安全分類器を通過させることで有害なコンテンツを生成する懸念が高まっていることがわかった。
論文 参考訳(メタデータ) (2024-02-07T09:39:29Z) - Masked Frequency Modeling for Self-Supervised Visual Pre-Training [102.89756957704138]
MFM(Masked Frequency Modeling)は、視覚モデルの自己教師付き事前学習のための統合周波数領域に基づくアプローチである。
MFMはまず入力画像の周波数成分の一部をマスクアウトし、周波数スペクトルの欠落周波数を予測する。
MFMは初めて、ViTとCNNの両方で、単純な非シームフレームワークは、以下のものを使って意味のある表現を学習できることを示した。
論文 参考訳(メタデータ) (2022-06-15T17:58:30Z) - Exploring Frequency Adversarial Attacks for Face Forgery Detection [59.10415109589605]
フェースフォージェリ検出器に対する周波数対向攻撃法を提案する。
また,メタラーニングの概念に触発されて,空間領域と周波数領域の両方で攻撃を行うハイブリッド逆攻撃を提案する。
論文 参考訳(メタデータ) (2022-03-29T15:34:13Z) - Detecting Adversaries, yet Faltering to Noise? Leveraging Conditional
Variational AutoEncoders for Adversary Detection in the Presence of Noisy
Images [0.7734726150561086]
条件変分オートエンコーダ(CVAE)は、知覚不能な画像摂動を検出するのに驚くほど優れている。
画像分類ネットワーク上での敵攻撃を検出するために,CVAEを効果的に利用する方法を示す。
論文 参考訳(メタデータ) (2021-11-28T20:36:27Z) - Unsupervised Single Image Super-resolution Under Complex Noise [60.566471567837574]
本稿では,一般のSISRタスクを未知の劣化で扱うためのモデルベースunsupervised SISR法を提案する。
提案手法は, より小さなモデル (0.34M vs. 2.40M) だけでなく, より高速な技術 (SotA) 法 (約1dB PSNR) の現況を明らかに超えることができる。
論文 参考訳(メタデータ) (2021-07-02T11:55:40Z) - Frequency Consistent Adaptation for Real World Super Resolution [64.91914552787668]
実シーンにスーパーリゾリューション(SR)法を適用する際に周波数領域の整合性を保証する新しい周波数一貫性適応(FCA)を提案する。
監視されていない画像から劣化カーネルを推定し、対応するLow-Resolution (LR)画像を生成する。
ドメイン一貫性のあるLR-HRペアに基づいて、容易に実装可能な畳み込みニューラルネットワーク(CNN)SRモデルを訓練する。
論文 参考訳(メタデータ) (2020-12-18T08:25:39Z) - Adversarial Robustness Across Representation Spaces [35.58913661509278]
逆サロバスト性は、テスト時の知覚できない摂動に対するディープニューラルネットワークの感受性に対応している。
本研究では、複数の自然表現空間に適用された摂動に同時に頑健にできるディープニューラルネットワークのトレーニング問題を考察するために、設定を拡張した。
論文 参考訳(メタデータ) (2020-12-01T19:55:58Z) - TensorShield: Tensor-based Defense Against Adversarial Attacks on Images [7.080154188969453]
近年の研究では、ディープニューラルネットワーク(DNN)のような機械学習アプローチが、敵の攻撃によって簡単に騙されることが示されている。
本稿では,テンソル分解法を前処理のステップとして利用して,高頻度摂動を著しく排除できる画像の低ランク近似を求める。
論文 参考訳(メタデータ) (2020-02-18T00:39:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。