論文の概要: Evaluating Similitude and Robustness of Deep Image Denoising Models via
Adversarial Attack
- arxiv url: http://arxiv.org/abs/2306.16050v1
- Date: Wed, 28 Jun 2023 09:30:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-29 14:55:26.098335
- Title: Evaluating Similitude and Robustness of Deep Image Denoising Models via
Adversarial Attack
- Title(参考訳): 逆攻撃による深部画像復調モデルの同時性およびロバスト性の評価
- Authors: Jie Ning, Yao Li, Zhichang Guo
- Abstract要約: ディープニューラルネットワーク(DNN)は、画像復調の分野で幅広い応用があり、従来の画像復調よりも優れている。
本稿では,既存のディープ・イメージ・デノベーション手法の類似性について述べる。
- 参考スコア(独自算出の注目度): 4.228930829461534
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural networks (DNNs) have a wide range of applications in the field of
image denoising, and they are superior to traditional image denoising. However,
DNNs inevitably show vulnerability, which is the weak robustness in the face of
adversarial attacks. In this paper, we find some similitudes between existing
deep image denoising methods, as they are consistently fooled by adversarial
attacks. First, denoising-PGD is proposed which is a denoising model full
adversarial method. The current mainstream non-blind denoising models (DnCNN,
FFDNet, ECNDNet, BRDNet), blind denoising models (DnCNN-B, Noise2Noise,
RDDCNN-B, FAN), and plug-and-play (DPIR, CurvPnP) and unfolding denoising
models (DeamNet) applied to grayscale and color images can be attacked by the
same set of methods. Second, since the transferability of denoising-PGD is
prominent in the image denoising task, we design experiments to explore the
characteristic of the latent under the transferability. We correlate
transferability with similitude and conclude that the deep image denoising
models have high similitude. Third, we investigate the characteristic of the
adversarial space and use adversarial training to complement the vulnerability
of deep image denoising to adversarial attacks on image denoising. Finally, we
constrain this adversarial attack method and propose the L2-denoising-PGD image
denoising adversarial attack method that maintains the Gaussian distribution.
Moreover, the model-driven image denoising BM3D shows some resistance in the
face of adversarial attacks.
- Abstract(参考訳): ディープニューラルネットワーク(dnn)は、画像デノイジングの分野で幅広い応用があり、従来の画像デノイジングよりも優れている。
しかし、DNNは必然的に、敵の攻撃に直面している弱い堅牢性を示す。
本稿では,既存の奥行き画像のデノイジング手法の類似性について検討する。
第一に、デノナイジング-PGDは、デノナイジングモデルの全対角法である。
現在の主流の非盲検モデル(DnCNN、FFDNet、ECNDNet、BRDNet)、盲検モデル(DnCNN-B、ノイズ2ノイズ、RDDCNN-B、FAN)、プラグ・アンド・プレイ(DPIR、CurvPnP)、グレースケールおよびカラー画像に適用した展開復調モデル(DeamNet)は、同一の手法で攻撃することができる。
第2に,画像デノイジングタスクではデノイジングpgdの転写能が顕著であるため,トランスファビリティ下での潜伏の特性を探索する実験をデザインする。
トランスファー可能性と同化度を関連付け、深部画像の同化モデルは高い同化度を持つと結論づける。
第3に, 対向空間の特徴について検討し, 対向訓練を用いて, 対向攻撃による深層画像の脆弱性を補完する。
最後に,この対向攻撃法を制約し,ガウス分布を維持する対向攻撃法L2-denoising-PGD画像を提案する。
さらに, BM3Dのモデル駆動画像は, 敵攻撃に対する抵抗性を示した。
関連論文リスト
- Random Sub-Samples Generation for Self-Supervised Real Image Denoising [9.459398471988724]
我々は,Smpling Different As Perturbation (SDAP) という,自己監督型実画像記述フレームワークを提案する。
トレーニング画像に適切な摂動を加えることで,BSNの性能を効果的に向上できることがわかった。
その結果、実世界のデータセット上で、最先端の自己教師型デノベーション手法を著しく上回っていることが明らかとなった。
論文 参考訳(メタデータ) (2023-07-31T16:39:35Z) - Confidence-based Reliable Learning under Dual Noises [46.45663546457154]
ディープニューラルネットワーク(DNN)は、様々なコンピュータビジョンタスクにおいて顕著な成功を収めている。
しかし、オープンワールドから収集されたデータはノイズによって必然的に汚染され、学習されたモデルの有効性を著しく損なう可能性がある。
データノイズ下でDNNを確実に訓練する様々な試みがなされているが、ラベルに存在するノイズと画像に存在するノイズを別々に考慮している。
この作業は、ジョイント(イメージ、ラベル)ノイズの下での信頼性学習のための、最初の統一されたフレームワークを提供する。
論文 参考訳(メタデータ) (2023-02-10T07:50:34Z) - Enhancing convolutional neural network generalizability via low-rank weight approximation [6.763245393373041]
十分なノイズ処理は、画像処理にとって重要な第一歩であることが多い。
ディープニューラルネットワーク(DNN)は画像のノイズ化に広く利用されている。
本研究では,タッカー低ランクテンソル近似に基づく自己教師付き画像復調フレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-26T14:11:05Z) - Robust Deep Ensemble Method for Real-world Image Denoising [62.099271330458066]
そこで本研究では,実世界の画像認識のための単純なベイズディープアンサンブル(BDE)手法を提案する。
我々のBDEは、最先端の復調法よりも+0.28dBPSNRのゲインを達成している。
我々のBDEは他の画像復元タスクにも拡張でき、ベンチマークデータセット上で+0.30dB、+0.18dB、+0.12dB PSNRゲインを達成することができる。
論文 参考訳(メタデータ) (2022-06-08T06:19:30Z) - From Environmental Sound Representation to Robustness of 2D CNN Models
Against Adversarial Attacks [82.21746840893658]
本稿では, 各種環境音響表現(スペクトログラム)が, 被害者残差畳み込みニューラルネットワークの認識性能と対角攻撃性に与える影響について検討する。
DWTスペクトログラムでトレーニングしたResNet-18モデルでは高い認識精度が得られたが、このモデルに対する攻撃は敵にとって比較的コストがかかる。
論文 参考訳(メタデータ) (2022-04-14T15:14:08Z) - Towards Adversarially Robust Deep Image Denoising [199.2458715635285]
本研究は,ディープ・イメージ・デノイザ(DID)の対角的ロバスト性について系統的に検討する。
本稿では,観測に基づくゼロ平均アタック(sc ObsAtk)という新たな敵攻撃を提案する。
DIDを頑健化するために,DIDと非対向雑音データとを併用したハイブリッド対向訓練(sc HAT)を提案する。
論文 参考訳(メタデータ) (2022-01-12T10:23:14Z) - Neighbor2Neighbor: Self-Supervised Denoising from Single Noisy Images [98.82804259905478]
Neighbor2Neighborを提示し、ノイズの多い画像のみで効果的な画像消音モデルをトレーニングします。
ネットワークのトレーニングに使用される入力とターゲットは、同じノイズ画像からサブサンプリングされた画像である。
デノイジングネットワークは、第1段階で生成されたサブサンプルトレーニングペアで訓練され、提案された正規化器は、より良いパフォーマンスのための追加の損失として訓練される。
論文 参考訳(メタデータ) (2021-01-08T02:03:25Z) - Variational Denoising Network: Toward Blind Noise Modeling and Removal [59.36166491196973]
ブラインド画像のデノイングはコンピュータビジョンにおいて重要な問題であるが、非常に難しい問題である。
本稿では,ノイズ推定と画像デノーミングを併用した新しい変分推論手法を提案する。
論文 参考訳(メタデータ) (2019-08-29T15:54:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。