論文の概要: AdvFilter: Predictive Perturbation-aware Filtering against Adversarial
Attack via Multi-domain Learning
- arxiv url: http://arxiv.org/abs/2107.06501v1
- Date: Wed, 14 Jul 2021 06:08:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-15 14:22:50.538207
- Title: AdvFilter: Predictive Perturbation-aware Filtering against Adversarial
Attack via Multi-domain Learning
- Title(参考訳): AdvFilter:マルチドメイン学習による敵攻撃に対する予測摂動認識フィルタ
- Authors: Yihao Huang and Qing Guo and Felix Juefei-Xu and Lei Ma and Weikai
Miao and Yang Liu and Geguang Pu
- Abstract要約: 本稿では,2重摂動フィルタと不確実性を考慮した融合モジュールを用いた予測摂動対応画素ワイドフィルタを提案する。
我々は,CNNの堅牢性向上,異なるモデルへの高一般化,ノイズレベルに対する利点を示す。
- 参考スコア(独自算出の注目度): 17.95784884411471
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: High-level representation-guided pixel denoising and adversarial training are
independent solutions to enhance the robustness of CNNs against adversarial
attacks by pre-processing input data and re-training models, respectively. Most
recently, adversarial training techniques have been widely studied and improved
while the pixel denoising-based method is getting less attractive. However, it
is still questionable whether there exists a more advanced pixel
denoising-based method and whether the combination of the two solutions
benefits each other. To this end, we first comprehensively investigate two
kinds of pixel denoising methods for adversarial robustness enhancement (i.e.,
existing additive-based and unexplored filtering-based methods) under the loss
functions of image-level and semantic-level restorations, respectively, showing
that pixel-wise filtering can obtain much higher image quality (e.g., higher
PSNR) as well as higher robustness (e.g., higher accuracy on adversarial
examples) than existing pixel-wise additive-based method. However, we also
observe that the robustness results of the filtering-based method rely on the
perturbation amplitude of adversarial examples used for training. To address
this problem, we propose predictive perturbation-aware pixel-wise filtering,
where dual-perturbation filtering and an uncertainty-aware fusion module are
designed and employed to automatically perceive the perturbation amplitude
during the training and testing process. The proposed method is termed as
AdvFilter. Moreover, we combine adversarial pixel denoising methods with three
adversarial training-based methods, hinting that considering data and models
jointly is able to achieve more robust CNNs. The experiments conduct on
NeurIPS-2017DEV, SVHN, and CIFAR10 datasets and show the advantages over
enhancing CNNs' robustness, high generalization to different models, and noise
levels.
- Abstract(参考訳): 入力データと再学習モデルによる逆攻撃に対するcnnのロバスト性を高めるため,高レベル表現誘導画素分節化と逆行訓練は独立したソリューションである。
直近では,ピクセル分母法が魅力を欠く一方で,逆行訓練手法が広く研究され,改善されている。
しかし、より高度なピクセルデノイングに基づく手法が存在するのか、この2つのソリューションの組み合わせが互いに利益をもたらすのかは疑問である。
そこで,本研究では,画像レベルの復元と意味レベルの復元の損失関数の下で,敵対的ロバスト性向上のための2種類の画素分割法(すなわち既存の加算型および未探索型フィルタリングベース法)を包括的に検討し,画素単位のフィルタリングにより画像品質(例えば,より高いpsnr)と、既存の画素単位の加算型法よりも高いロバスト性(例えば、逆行例の精度)が得られることを示した。
しかし, フィルタ方式の頑健性は, 学習に用いた逆数例の摂動振幅に依存することも観察した。
この問題に対処するために,2つの摂動フィルタと不確実性を考慮した融合モジュールを設計し,トレーニングおよび試験過程における摂動振幅を自動的に知覚する,予測摂動対応画素ワイズフィルタを提案する。
提案手法はAdvFilterと呼ばれる。
さらに, 対向画素復調法を3つの対向訓練法と組み合わせることで, データとモデルを併用することで, より堅牢なCNNを実現することができることを示唆する。
実験はNeurIPS-2017DEV、SVHN、CIFAR10データセット上で行われ、CNNの堅牢性の向上、異なるモデルへの高い一般化、ノイズレベルに対するアドバンテージを示す。
関連論文リスト
- PAIF: Perception-Aware Infrared-Visible Image Fusion for Attack-Tolerant
Semantic Segmentation [50.556961575275345]
対向シーンにおけるセグメンテーションの堅牢性を促進するための認識認識型融合フレームワークを提案する。
我々は,先進の競争相手に比べて15.3% mIOUの利得で,ロバスト性を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2023-08-08T01:55:44Z) - Masked Image Training for Generalizable Deep Image Denoising [53.03126421917465]
本稿では,デノナイジングネットワークの一般化性能を高めるための新しい手法を提案する。
提案手法では,入力画像のランダムなピクセルをマスキングし,学習中に欠落した情報を再構成する。
提案手法は,他のディープラーニングモデルよりも優れた一般化能力を示し,実世界のシナリオに直接適用可能である。
論文 参考訳(メタデータ) (2023-03-23T09:33:44Z) - Linear Combinations of Patches are Unreasonably Effective for Single-Image Denoising [5.893124686141782]
ディープニューラルネットワークは、画像のノイズ化に革命を起こし、大幅な精度向上を実現している。
画像先行を外部から学習する必要性を軽減するため、入力ノイズ画像の分析のみに基づいて、単画像方式で復調を行う。
本研究は, この制約下でのデノナイズのためのパッチの線形結合の有効性について検討する。
論文 参考訳(メタデータ) (2022-12-01T10:52:03Z) - DCCF: Deep Comprehensible Color Filter Learning Framework for
High-Resolution Image Harmonization [14.062386668676533]
本稿では,高分解能画像調和のためのDeep Comprehensible Color Filter (DCCF) 学習フレームワークを提案する。
DCCFは、4つの人間の理解可能なニューラルネットワーク(色調、飽和度、値、減衰率)をエンドツーエンドで学習する。
MSEとPSNRでそれぞれ7.63%と1.69%の改善を達成し、画像のフル解像度でiHarmony4データセットの最先端のポストプロセッシング手法を上回っている。
論文 参考訳(メタデータ) (2022-07-11T11:42:10Z) - Diffusion Models for Adversarial Purification [69.1882221038846]
対人浄化(Adrial purification)とは、生成モデルを用いて敵の摂動を除去する防衛方法の分類である。
そこで我々は,拡散モデルを用いたDiffPureを提案する。
提案手法は,現在の対人訓練および対人浄化方法よりも優れ,最先端の成果を達成する。
論文 参考訳(メタデータ) (2022-05-16T06:03:00Z) - Deblurring via Stochastic Refinement [85.42730934561101]
条件付き拡散モデルに基づくブラインドデブロアリングのための代替フレームワークを提案する。
提案手法は,PSNRなどの歪み指標の点で競合する。
論文 参考訳(メタデータ) (2021-12-05T04:36:09Z) - Beyond Joint Demosaicking and Denoising: An Image Processing Pipeline
for a Pixel-bin Image Sensor [0.883717274344425]
Pixel binningは、スマートフォンカメラのハードウェア制限に対処する最も顕著なソリューションの1つだと考えられている。
本稿では,新しい学習手法を導入することで,このような画像センサ上でのJDD(Joint Desaicing and Denoising)の課題に対処する。
提案手法は,視覚可能な画像を生成するための2つの新しい知覚損失を含む多項目的関数によって導かれる。
論文 参考訳(メタデータ) (2021-04-19T15:41:28Z) - Learning Spatial and Spatio-Temporal Pixel Aggregations for Image and
Video Denoising [104.59305271099967]
ピクセル集計ネットワークを提示し、画像デノイジングのためのピクセルサンプリングと平均戦略を学びます。
時間空間にまたがるサンプル画素をビデオデノナイズするための画素集約ネットワークを開発した。
本手法は,動的シーンにおける大きな動きに起因する誤認問題を解決することができる。
論文 参考訳(メタデータ) (2021-01-26T13:00:46Z) - Depth image denoising using nuclear norm and learning graph model [107.51199787840066]
グループベース画像復元法は,パッチ間の類似性収集に有効である。
各パッチに対して、検索ウィンドウ内で最もよく似たパッチを見つけ、グループ化する。
提案手法は, 主観的, 客観的両面において, 最先端の復調法よりも優れている。
論文 参考訳(メタデータ) (2020-08-09T15:12:16Z) - Noise2Inpaint: Learning Referenceless Denoising by Inpainting Unrolling [2.578242050187029]
本稿では,ノイズ2Inpaint (N2I) をトレーニング手法として導入し,デノナイジング問題を正規化した画像インパインティングフレームワークに再キャストする。
N2Iは、実世界のデータセットのデノベーションを成功させると同時に、純粋にデータ駆動型であるNoss2Selfと比較して詳細を保存できる。
論文 参考訳(メタデータ) (2020-06-16T18:46:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。