論文の概要: On Adversarial Robustness of Deep Image Deblurring
- arxiv url: http://arxiv.org/abs/2210.02502v1
- Date: Wed, 5 Oct 2022 18:31:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 17:30:32.704746
- Title: On Adversarial Robustness of Deep Image Deblurring
- Title(参考訳): 深部画像デブラリングの逆ロバスト性について
- Authors: Kanchana Vaishnavi Gandikota, Paramanand Chandramouli, Michael Moeller
- Abstract要約: 本稿では,深層学習に基づく画像デブロワー法に対する敵対的攻撃を提案する。
本研究では,非知覚歪みが最先端の劣化ネットワークの性能を著しく低下させることを示した。
- 参考スコア(独自算出の注目度): 15.66170693813815
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent approaches employ deep learning-based solutions for the recovery of a
sharp image from its blurry observation. This paper introduces adversarial
attacks against deep learning-based image deblurring methods and evaluates the
robustness of these neural networks to untargeted and targeted attacks. We
demonstrate that imperceptible distortion can significantly degrade the
performance of state-of-the-art deblurring networks, even producing drastically
different content in the output, indicating the strong need to include
adversarially robust training not only in classification but also for image
recovery.
- Abstract(参考訳): 近年のアプローチでは、そのぼやけた観察からシャープな画像の復元にディープラーニングベースのソリューションが採用されている。
本稿では,深層学習に基づく画像デブロワー法に対する敵対的攻撃を導入し,これらのニューラルネットワークの標的外攻撃に対する堅牢性を評価する。
本研究では,非知覚的歪みが,最先端の劣化ネットワークの性能を著しく低下させ,出力に大きく異なる内容が生じることを示し,分類だけでなく画像復元にも逆向きに堅牢なトレーニングを組み込む必要があることを示す。
関連論文リスト
- Revisiting Min-Max Optimization Problem in Adversarial Training [0.0]
現実世界のコンピュータビジョンアプリケーションは、ディープニューラルネットワークのセキュリティを危険にさらす。
最近の研究では、畳み込みニューラルネットワークは敵の例に影響を受けやすいことが示されている。
敵攻撃に対する堅牢なディープニューラルネットワークを構築するための新しい手法を提案する。
論文 参考訳(メタデータ) (2024-08-20T22:31:19Z) - Dual Adversarial Resilience for Collaborating Robust Underwater Image
Enhancement and Perception [54.672052775549]
本研究では,水中画像の強調と検出を行うために,CARNetと呼ばれる協調的対向レジリエンスネットワークを導入する。
本稿では,ネットワークが様々な種類の攻撃を識別・除去できるように,視覚駆動型と知覚駆動型の両方による同時攻撃訓練戦略を提案する。
実験により,提案手法は画像の高画質化を図り,最先端の手法よりも平均6.71%高い検出精度が得られた。
論文 参考訳(メタデータ) (2023-09-03T06:52:05Z) - Training on Foveated Images Improves Robustness to Adversarial Attacks [26.472800216546233]
ディープニューラルネットワーク(DNN)は敵の攻撃に弱いことが示されている。
RBlurは、画像のぼやけて彩度を下げることで、周辺視力の損失をシミュレートする画像変換である。
RBlurによって変換された画像に基づいてトレーニングされたDNNは、敵対的攻撃や、他の非敵的、汚職に対してかなり堅牢であり、摂動データに対して最大25%高い精度を達成する。
論文 参考訳(メタデータ) (2023-08-01T21:40:30Z) - Sharp-GAN: Sharpness Loss Regularized GAN for Histopathology Image
Synthesis [65.47507533905188]
コンディショナル・ジェネレーショナル・ジェネレーティブ・逆境ネットワークは、合成病理像を生成するために応用されている。
そこで我々は,現実的な病理像を合成するために,シャープネスロス正則化生成対向ネットワークを提案する。
論文 参考訳(メタデータ) (2021-10-27T18:54:25Z) - Deep Bayesian Image Set Classification: A Defence Approach against
Adversarial Attacks [32.48820298978333]
ディープニューラルネットワーク(DNN)は、敵にほぼ自信を持って騙される可能性がある。
実際には、敵対的な例として知られる、注意深く摂動された画像に対するディープラーニングシステムの脆弱性は、物理世界のアプリケーションに深刻なセキュリティ上の脅威をもたらす。
本稿では,幅広い敵攻撃に対する防御フレームワークとして,頑健なベイズ画像集合分類を提案する。
論文 参考訳(メタデータ) (2021-08-23T14:52:44Z) - Deep Image Destruction: A Comprehensive Study on Vulnerability of Deep
Image-to-Image Models against Adversarial Attacks [104.8737334237993]
本稿では,敵対的攻撃に対する深部画像対画像モデルの脆弱性に関する包括的調査を行う。
一般的な5つの画像処理タスクでは、さまざまな観点から16の深いモデルが分析される。
画像分類タスクとは異なり、画像間タスクの性能劣化は様々な要因によって大きく異なることが示される。
論文 参考訳(メタデータ) (2021-04-30T14:20:33Z) - Face Anti-Spoofing Via Disentangled Representation Learning [90.90512800361742]
顔認識システムのセキュリティには、顔の偽造が不可欠だ。
本稿では,画像から生意気な特徴やコンテンツの特徴を乱す顔のアンチ・スプーフィングの新たな視点を提案する。
論文 参考訳(メタデータ) (2020-08-19T03:54:23Z) - Towards Achieving Adversarial Robustness by Enforcing Feature
Consistency Across Bit Planes [51.31334977346847]
我々は、高ビット平面の情報に基づいて粗い印象を形成するためにネットワークを訓練し、低ビット平面を用いて予測を洗練させる。
異なる量子化画像間で学習した表現に一貫性を付与することにより、ネットワークの対角的ロバスト性が大幅に向上することを示した。
論文 参考訳(メタデータ) (2020-04-01T09:31:10Z) - Single image reflection removal via learning with multi-image
constraints [50.54095311597466]
本稿では、上記のアプローチの利点を組み合わせ、その欠点を克服する新しい学習ベースソリューションを提案する。
提案アルゴリズムはディープニューラルネットワークを学習して、複数の入力画像間で強化されたジョイント制約でターゲットを最適化する。
我々のアルゴリズムは実画像上でリアルタイムかつ最先端の反射除去性能で動作する。
論文 参考訳(メタデータ) (2019-12-08T06:10:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。