論文の概要: Delving into Deep Image Prior for Adversarial Defense: A Novel
Reconstruction-based Defense Framework
- arxiv url: http://arxiv.org/abs/2108.00180v1
- Date: Sat, 31 Jul 2021 08:49:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-03 15:20:44.940849
- Title: Delving into Deep Image Prior for Adversarial Defense: A Novel
Reconstruction-based Defense Framework
- Title(参考訳): 敵防衛に先立つ深層画像の深層化:新しい再構築型防衛フレームワーク
- Authors: Li Ding, Yongwei Wang, Xin Ding, Kaiwen Yuan, Ping Wang, Hua Huang, Z.
Jane Wang
- Abstract要約: 本研究は, より深いイメージを掘り下げることによる, 新規かつ効果的な再構築型防御フレームワークを提案する。
提案手法は, モデル決定過程を分析し, 明示的に記述する。
実験により,提案手法は,ホワイトボックス攻撃とディフェンスアウェア攻撃の両面において,既存の最先端の再構築手法よりも優れていることが示された。
- 参考スコア(独自算出の注目度): 34.75025893777763
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning based image classification models are shown vulnerable to
adversarial attacks by injecting deliberately crafted noises to clean images.
To defend against adversarial attacks in a training-free and attack-agnostic
manner, this work proposes a novel and effective reconstruction-based defense
framework by delving into deep image prior (DIP). Fundamentally different from
existing reconstruction-based defenses, the proposed method analyzes and
explicitly incorporates the model decision process into our defense. Given an
adversarial image, firstly we map its reconstructed images during DIP
optimization to the model decision space, where cross-boundary images can be
detected and on-boundary images can be further localized. Then, adversarial
noise is purified by perturbing on-boundary images along the reverse direction
to the adversarial image. Finally, on-manifold images are stitched to construct
an image that can be correctly predicted by the victim classifier. Extensive
experiments demonstrate that the proposed method outperforms existing
state-of-the-art reconstruction-based methods both in defending white-box
attacks and defense-aware attacks. Moreover, the proposed method can maintain a
high visual quality during adversarial image reconstruction.
- Abstract(参考訳): ディープラーニングに基づく画像分類モデルは、画像のクリーニングに意図的に製作されたノイズを注入することにより、敵の攻撃に弱いことを示す。
本研究は,非訓練的かつ攻撃非依存な方法で敵の攻撃を防御するために,深部画像先行 (dip) を探索し,新規かつ効果的な再構築ベースの防御枠組みを提案する。
既存の再構築ベースの防御とは根本的に異なり、提案手法はモデル決定プロセスを解析し、明確に防御に組み込む。
逆画像が与えられた場合、まず、ディップ最適化中に再構成された画像をモデル決定空間にマッピングし、そこでクロスバウンダリ画像を検出し、オンバウンダリ画像をさらにローカライズする。
そして、逆方向に沿ったオンバウンダリ画像を対向画像に摂動することにより、対向ノイズを浄化する。
最後に、on-manifoldイメージを縫い合わせることで、被害者分類器によって正確に予測できる画像を構築する。
広汎な実験により,提案手法は,白箱攻撃と防衛意識攻撃の両面において,既存の最先端の再構築手法よりも優れていることが示された。
さらに,提案手法は,対向画像再構成時に高い画質を維持することができる。
関連論文リスト
- MirrorCheck: Efficient Adversarial Defense for Vision-Language Models [55.73581212134293]
本稿では,視覚言語モデルにおける対角的サンプル検出のための,新しい,しかしエレガントなアプローチを提案する。
本手法は,テキスト・トゥ・イメージ(T2I)モデルを用いて,ターゲットVLMが生成したキャプションに基づいて画像を生成する。
異なるデータセットで実施した経験的評価により,本手法の有効性が検証された。
論文 参考訳(メタデータ) (2024-06-13T15:55:04Z) - Adversarial Purification and Fine-tuning for Robust UDC Image Restoration [25.02234305857731]
Under-Display Camera (UDC) 技術は、敵対的摂動に対する感受性によって悪化する独自の画像劣化問題に直面している。
本研究は、敵攻撃に対する堅牢性に着目し、UDC画像復元モデルの強化に焦点を当てた。
論文 参考訳(メタデータ) (2024-02-21T09:06:04Z) - Anomaly Unveiled: Securing Image Classification against Adversarial
Patch Attacks [3.6275442368775512]
敵対的パッチ攻撃は、ディープラーニングシステムの実践的な展開に重大な脅威をもたらす。
本稿では,画像情報の分布における逆パッチの異常としての挙動について検討する。
提案する防御機構は,DBSCANと呼ばれるクラスタリング技術を用いて,異常な画像セグメントを分離する。
論文 参考訳(メタデータ) (2024-02-09T08:52:47Z) - IRAD: Implicit Representation-driven Image Resampling against Adversarial Attacks [16.577595936609665]
本稿では,画像再サンプリングという,敵対的攻撃に対する新たなアプローチを提案する。
画像再サンプリングは、幾何学的変換によって指定されたシーンの再調整や再レンダリングの過程をシミュレートして、離散画像を新しい画像に変換する。
本手法は,クリーンな画像の精度を維持しつつ,多様な深層モデルの様々な攻撃に対する対角的堅牢性を著しく向上することを示す。
論文 参考訳(メタデータ) (2023-10-18T11:19:32Z) - Reconstruction Distortion of Learned Image Compression with
Imperceptible Perturbations [69.25683256447044]
本稿では,学習画像圧縮(lic)の再構成品質を効果的に劣化させる攻撃手法を提案する。
我々は,Frobeniusノルムに基づく損失関数を導入して,元の画像と再構成された逆例との差を最大化することによって,逆例を生成する。
様々なlicモデルを用いてKodakデータセット上で実験を行った結果,有効性が確認された。
論文 参考訳(メタデータ) (2023-06-01T20:21:05Z) - Adversarial Purification through Representation Disentanglement [21.862799765511976]
ディープラーニングモデルは敵の例に弱いため、理解不能な間違いを犯す。
現在の防御法、特に浄化法は、自然画像の学習と復元によってノイズを除去する傾向がある。
本研究では, 自然画像の乱れと逆流を前処理防御として提示し, 新たな逆流浄化法を提案する。
論文 参考訳(メタデータ) (2021-10-15T01:45:31Z) - Deep Image Destruction: A Comprehensive Study on Vulnerability of Deep
Image-to-Image Models against Adversarial Attacks [104.8737334237993]
本稿では,敵対的攻撃に対する深部画像対画像モデルの脆弱性に関する包括的調査を行う。
一般的な5つの画像処理タスクでは、さまざまな観点から16の深いモデルが分析される。
画像分類タスクとは異なり、画像間タスクの性能劣化は様々な要因によって大きく異なることが示される。
論文 参考訳(メタデータ) (2021-04-30T14:20:33Z) - Adversarial Examples Detection beyond Image Space [88.7651422751216]
摂動と予測信頼の間にはコンプライアンスが存在することが分かり、予測信頼の面から少数の摂動攻撃を検出するための指針となる。
本研究では,画像ストリームが画素アーティファクトに注目し,勾配ストリームが信頼度アーティファクトに対応する2ストリームアーキテクチャによる画像空間を超えた手法を提案する。
論文 参考訳(メタデータ) (2021-02-23T09:55:03Z) - Error Diffusion Halftoning Against Adversarial Examples [85.11649974840758]
敵対的な例には、深いニューラルネットワークを誤った予測にだますことができる慎重に作られた摂動が含まれます。
誤り拡散のハーフトン化に基づく新しい画像変換防御を提案し、逆転の例に対して防御するための逆転訓練と組み合わせます。
論文 参考訳(メタデータ) (2021-01-23T07:55:02Z) - Online Alternate Generator against Adversarial Attacks [144.45529828523408]
ディープラーニングモデルは、実際の画像に準知覚可能なノイズを加えることによって合成される敵の例に非常に敏感である。
対象ネットワークのパラメータをアクセスしたり変更したりする必要のない,ポータブルな防御手法であるオンライン代替ジェネレータを提案する。
提案手法は,入力画像のスクラッチから別の画像をオンライン合成することで,対向雑音を除去・破壊する代わりに機能する。
論文 参考訳(メタデータ) (2020-09-17T07:11:16Z) - GraCIAS: Grassmannian of Corrupted Images for Adversarial Security [4.259219671110274]
本研究では,入力画像のみにランダムな画像破損を適用する防衛戦略を提案する。
クリーン画像の投影作用素と逆摂動バージョンとの近接関係は、グラスマン空間上の測地線距離と行列フロベニウスノルムとの接点を通して展開する。
最先端のアプローチとは異なり、再訓練がなくても、提案した戦略はImageNetの防御精度を4.5%向上させる。
論文 参考訳(メタデータ) (2020-05-06T16:17:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。