論文の概要: Evaluating Similitude and Robustness of Deep Image Denoising Models via
Adversarial Attack
- arxiv url: http://arxiv.org/abs/2306.16050v2
- Date: Fri, 7 Jul 2023 02:40:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-10 14:44:53.012656
- Title: Evaluating Similitude and Robustness of Deep Image Denoising Models via
Adversarial Attack
- Title(参考訳): 逆攻撃による深部画像復調モデルの同時性およびロバスト性の評価
- Authors: Jie Ning, Jiebao Sun, Yao Li, Zhichang Guo, Wangmeng Zuo
- Abstract要約: ディープニューラルネットワーク(DNN)は、従来の画像復調アルゴリズムよりも優れたパフォーマンスを示している。
本稿では,現在のディープ・ディープ・ディープ・ディープ・ディープ・ディープ・ディープ・ディープ・ディープ・ディープ・ディープ・ディープ・ディープ・ディープ・ディープ・ディナイジング・PGD(Denoising-PGD)と名づけられた敵攻撃手法を提案する。
- 参考スコア(独自算出の注目度): 60.40356882897116
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural networks (DNNs) have shown superior performance comparing to
traditional image denoising algorithms. However, DNNs are inevitably vulnerable
while facing adversarial attacks. In this paper, we propose an adversarial
attack method named denoising-PGD which can successfully attack all the current
deep denoising models while keep the noise distribution almost unchanged. We
surprisingly find that the current mainstream non-blind denoising models
(DnCNN, FFDNet, ECNDNet, BRDNet), blind denoising models (DnCNN-B, Noise2Noise,
RDDCNN-B, FAN), plug-and-play (DPIR, CurvPnP) and unfolding denoising models
(DeamNet) almost share the same adversarial sample set on both grayscale and
color images, respectively. Shared adversarial sample set indicates that all
these models are similar in term of local behaviors at the neighborhood of all
the test samples. Thus, we further propose an indicator to measure the local
similarity of models, called robustness similitude. Non-blind denoising models
are found to have high robustness similitude across each other, while
hybrid-driven models are also found to have high robustness similitude with
pure data-driven non-blind denoising models. According to our robustness
assessment, data-driven non-blind denoising models are the most robust. We use
adversarial training to complement the vulnerability to adversarial attacks.
Moreover, the model-driven image denoising BM3D shows resistance on adversarial
attacks.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、従来の画像復調アルゴリズムと比較して優れたパフォーマンスを示している。
しかし、DNNは敵の攻撃に直面しながら必然的に脆弱である。
本稿では,雑音分布をほぼ一定に保ちながら,現在のディープ・ディープ・ディープ・デノナイジング・モデル全てを効果的に攻撃できるデノナイジング・PGDという対向攻撃手法を提案する。
現在主流となっている非盲検モデル (DnCNN, FFDNet, ECNDNet, BRDNet), 盲検モデル (DnCNN-B, Noise2Noise, RDDCNN-B, FAN), プラグ・アンド・プレイ(DPIR, CurvPnP) および展開復調モデル (DeamNet) は,それぞれ,グレースケールとカラーイメージに設定されたほぼ同一の逆検サンプルを共有している。
共有対数サンプル集合は、これらのモデルが全ての試験サンプルの近傍の局所的挙動の観点から類似していることを示している。
そこで本研究では,ロバストネス同時性と呼ばれるモデルの局所的類似度を測定する指標を提案する。
ハイブリッド駆動のモデルは純粋なデータ駆動の非ブリンドの同期モデルと高いロバスト性を持つのに対し、非ブリンドの同期モデルは互いに高いロバスト性を持つ。
堅牢性評価によると、データ駆動型非盲検モデルは最も堅牢である。
我々は敵の攻撃に対する脆弱性を補完するために敵の訓練を使用する。
さらに、BM3Dのモデル駆動画像は、敵攻撃に対する耐性を示す。
関連論文リスト
- Random Sub-Samples Generation for Self-Supervised Real Image Denoising [9.459398471988724]
我々は,Smpling Different As Perturbation (SDAP) という,自己監督型実画像記述フレームワークを提案する。
トレーニング画像に適切な摂動を加えることで,BSNの性能を効果的に向上できることがわかった。
その結果、実世界のデータセット上で、最先端の自己教師型デノベーション手法を著しく上回っていることが明らかとなった。
論文 参考訳(メタデータ) (2023-07-31T16:39:35Z) - Confidence-based Reliable Learning under Dual Noises [46.45663546457154]
ディープニューラルネットワーク(DNN)は、様々なコンピュータビジョンタスクにおいて顕著な成功を収めている。
しかし、オープンワールドから収集されたデータはノイズによって必然的に汚染され、学習されたモデルの有効性を著しく損なう可能性がある。
データノイズ下でDNNを確実に訓練する様々な試みがなされているが、ラベルに存在するノイズと画像に存在するノイズを別々に考慮している。
この作業は、ジョイント(イメージ、ラベル)ノイズの下での信頼性学習のための、最初の統一されたフレームワークを提供する。
論文 参考訳(メタデータ) (2023-02-10T07:50:34Z) - Enhancing convolutional neural network generalizability via low-rank weight approximation [6.763245393373041]
十分なノイズ処理は、画像処理にとって重要な第一歩であることが多い。
ディープニューラルネットワーク(DNN)は画像のノイズ化に広く利用されている。
本研究では,タッカー低ランクテンソル近似に基づく自己教師付き画像復調フレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-26T14:11:05Z) - Robust Deep Ensemble Method for Real-world Image Denoising [62.099271330458066]
そこで本研究では,実世界の画像認識のための単純なベイズディープアンサンブル(BDE)手法を提案する。
我々のBDEは、最先端の復調法よりも+0.28dBPSNRのゲインを達成している。
我々のBDEは他の画像復元タスクにも拡張でき、ベンチマークデータセット上で+0.30dB、+0.18dB、+0.12dB PSNRゲインを達成することができる。
論文 参考訳(メタデータ) (2022-06-08T06:19:30Z) - From Environmental Sound Representation to Robustness of 2D CNN Models
Against Adversarial Attacks [82.21746840893658]
本稿では, 各種環境音響表現(スペクトログラム)が, 被害者残差畳み込みニューラルネットワークの認識性能と対角攻撃性に与える影響について検討する。
DWTスペクトログラムでトレーニングしたResNet-18モデルでは高い認識精度が得られたが、このモデルに対する攻撃は敵にとって比較的コストがかかる。
論文 参考訳(メタデータ) (2022-04-14T15:14:08Z) - Towards Adversarially Robust Deep Image Denoising [199.2458715635285]
本研究は,ディープ・イメージ・デノイザ(DID)の対角的ロバスト性について系統的に検討する。
本稿では,観測に基づくゼロ平均アタック(sc ObsAtk)という新たな敵攻撃を提案する。
DIDを頑健化するために,DIDと非対向雑音データとを併用したハイブリッド対向訓練(sc HAT)を提案する。
論文 参考訳(メタデータ) (2022-01-12T10:23:14Z) - Neighbor2Neighbor: Self-Supervised Denoising from Single Noisy Images [98.82804259905478]
Neighbor2Neighborを提示し、ノイズの多い画像のみで効果的な画像消音モデルをトレーニングします。
ネットワークのトレーニングに使用される入力とターゲットは、同じノイズ画像からサブサンプリングされた画像である。
デノイジングネットワークは、第1段階で生成されたサブサンプルトレーニングペアで訓練され、提案された正規化器は、より良いパフォーマンスのための追加の損失として訓練される。
論文 参考訳(メタデータ) (2021-01-08T02:03:25Z) - Variational Denoising Network: Toward Blind Noise Modeling and Removal [59.36166491196973]
ブラインド画像のデノイングはコンピュータビジョンにおいて重要な問題であるが、非常に難しい問題である。
本稿では,ノイズ推定と画像デノーミングを併用した新しい変分推論手法を提案する。
論文 参考訳(メタデータ) (2019-08-29T15:54:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。