論文の概要: AVA: Adversarial Vignetting Attack against Visual Recognition
- arxiv url: http://arxiv.org/abs/2105.05558v1
- Date: Wed, 12 May 2021 10:18:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-13 12:16:27.712367
- Title: AVA: Adversarial Vignetting Attack against Visual Recognition
- Title(参考訳): AVA: 視覚認知に対する敵対的警戒攻撃
- Authors: Binyu Tian and Felix Juefei-Xu and Qing Guo and Xiaofei Xie and
Xiaohong Li and Yang Liu
- Abstract要約: 我々は,新しい視点,すなわちadversarial vignetting attack (ava) からヴィネッティングを研究する。
AVAは意図的に誤解を招く情報をvignettingに埋め込んで、ノイズパターンのない自然な逆転例を作り出します。
この例は最先端の深層畳み込みニューラルネットワーク(CNN)を騙すことができるが、人間には受け入れられない。
- 参考スコア(独自算出の注目度): 20.995444545062707
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Vignetting is an inherited imaging phenomenon within almost all optical
systems, showing as a radial intensity darkening toward the corners of an
image. Since it is a common effect for photography and usually appears as a
slight intensity variation, people usually regard it as a part of a photo and
would not even want to post-process it. Due to this natural advantage, in this
work, we study vignetting from a new viewpoint, i.e., adversarial vignetting
attack (AVA), which aims to embed intentionally misleading information into
vignetting and produce a natural adversarial example without noise patterns.
This example can fool the state-of-the-art deep convolutional neural networks
(CNNs) but is imperceptible to humans. To this end, we first propose the
radial-isotropic adversarial vignetting attack (RI-AVA) based on the physical
model of vignetting, where the physical parameters (e.g., illumination factor
and focal length) are tuned through the guidance of target CNN models. To
achieve higher transferability across different CNNs, we further propose
radial-anisotropic adversarial vignetting attack (RA-AVA) by allowing the
effective regions of vignetting to be radial-anisotropic and shape-free.
Moreover, we propose the geometry-aware level-set optimization method to solve
the adversarial vignetting regions and physical parameters jointly. We validate
the proposed methods on three popular datasets, i.e., DEV, CIFAR10, and Tiny
ImageNet, by attacking four CNNs, e.g., ResNet50, EfficientNet-B0, DenseNet121,
and MobileNet-V2, demonstrating the advantages of our methods over baseline
methods on both transferability and image quality.
- Abstract(参考訳): ヴィネッティング(vignetting)は、ほぼすべての光学系において、画像の角に向かって放射強度が暗くなる現象である。
写真に共通する効果であり、通常はわずかな強度の変化として現れるため、通常は写真の一部と見なされ、後処理を望まない。
この自然な利点から,本研究では,故意に誤解を招く情報を埋め込み,ノイズパターンを伴わない自然な敵対的例を作成することを目的とした,新たな視点,すなわちadversarial vignetting attack(ava)からヴィネッティングを考察する。
この例は最先端の深層畳み込みニューラルネットワーク(CNN)を騙すことができるが、人間には受け入れられない。
そこで本研究では,まず,対象のcnnモデルの誘導により物理パラメータ(照明係数,焦点長など)を調整したヴィネッティングの物理モデルに基づくラジアル・等方性逆ヴィネッティング攻撃(ri-ava)を提案する。
異なるcnn間の高い転送性を実現するため,我々はさらに,有効なナビネット領域をラジアル異方性と形状フリーにすることで,ラジアル異方性逆ヴィネッティング攻撃(ra-ava)を提案する。
さらに, 逆ヴィネッティング領域と物理パラメータを共同で解くための幾何認識レベルセット最適化手法を提案する。
提案手法を3つの一般的なデータセット(dev, cifar10, tiny imagenet)で検証し,cnn4つ,例えばresnet50, efficientnet-b0, densenet121, mobilenet-v2を攻撃し,トランスファー可能性と画質の両方において,ベースライン法よりも提案手法のアドバンテージを実証した。
関連論文リスト
- Robustifying Deep Vision Models Through Shape Sensitization [19.118696557797957]
そこで本研究では,ネットワークの全体像を学習するためのインセンティブを明示的に付与する,シンプルで軽量な対向拡張手法を提案する。
我々の拡張は、ランダムに決定された混合比を用いて、シャッフルパッチで、ある画像から別の画像へのエッジマップを重畳する。
この拡張により,データセットやニューラルアーキテクチャの分類精度とロバストネスが大幅に向上することを示す。
論文 参考訳(メタデータ) (2022-11-14T11:17:46Z) - Object-Attentional Untargeted Adversarial Attack [11.800889173823945]
本研究では,標的外攻撃に対する対象意図的攻撃法を提案する。
具体的には、まず、対象検出領域をYOLOv4からHVPNetから有能な対象検出領域と交差させてオブジェクト領域を生成する。
次に,SimBA(Simple Black-box Adversarial Attack)を利用して,検出対象領域に対してのみ敵攻撃を行う。
論文 参考訳(メタデータ) (2022-10-16T07:45:13Z) - GradViT: Gradient Inversion of Vision Transformers [83.54779732309653]
我々は,視力変換器(ViT)の勾配に基づく逆攻撃に対する脆弱性を実証する。
自然に見える画像にランダムノイズを最適化するGradViTという手法を提案する。
元の(隠された)データに対する前例のない高い忠実さと近接性を観察する。
論文 参考訳(メタデータ) (2022-03-22T17:06:07Z) - Image Restoration by Deep Projected GSURE [115.57142046076164]
Ill-posed inverse problem は、デブロアリングや超解像など、多くの画像処理アプリケーションに現れる。
本稿では,一般化されたSteinUnbiased Risk Estimator(GSURE)の「投影変換」とCNNによる潜在画像のパラメータ化を含む損失関数の最小化に基づく,新たな画像復元フレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-04T08:52:46Z) - PICA: A Pixel Correlation-based Attentional Black-box Adversarial Attack [37.15301296824337]
PICAと呼ばれる画素相関に基づく注目ブラックボックス対向攻撃を提案する。
PICAは、既存のブラックボックス攻撃と比較して高解像度の逆例を生成するのが効率的である。
論文 参考訳(メタデータ) (2021-01-19T09:53:52Z) - GreedyFool: Distortion-Aware Sparse Adversarial Attack [138.55076781355206]
現代のディープニューラルネットワーク(DNN)は、敵のサンプルに対して脆弱である。
スパース逆数サンプルは、数ピクセルだけを摂動させることでターゲットモデルを騙すことができる。
GreedyFoolと呼ばれる2段階の歪みを考慮したグリーディ法を提案する。
論文 参考訳(メタデータ) (2020-10-26T17:59:07Z) - Depth image denoising using nuclear norm and learning graph model [107.51199787840066]
グループベース画像復元法は,パッチ間の類似性収集に有効である。
各パッチに対して、検索ウィンドウ内で最もよく似たパッチを見つけ、グループ化する。
提案手法は, 主観的, 客観的両面において, 最先端の復調法よりも優れている。
論文 参考訳(メタデータ) (2020-08-09T15:12:16Z) - Patch-wise Attack for Fooling Deep Neural Network [153.59832333877543]
我々は,一般的な訓練と防御モデルに対するブラックボックス攻撃であるパッチワイド反復アルゴリズムを提案する。
我々は、防衛モデルで9.2%、通常訓練されたモデルで3.7%、成功率で著しく改善した。
論文 参考訳(メタデータ) (2020-07-14T01:50:22Z) - Watch out! Motion is Blurring the Vision of Your Deep Neural Networks [34.51270823371404]
最先端のディープニューラルネットワーク(DNN)は、付加的なランダムなノイズ摂動を伴う敵の例に対して脆弱である。
そこで本研究では,視覚的に自然な動きを呈する対向攻撃の例を生成できる新しい対向攻撃法を提案する。
NeurIPS'17競合競合データセットに関する総合的な評価は、ABBAの有効性を示している。
論文 参考訳(メタデータ) (2020-02-10T02:33:08Z) - Image Fine-grained Inpainting [89.17316318927621]
拡張畳み込みの密結合を利用してより大きく効果的な受容場を得る一段階モデルを提案する。
この効率的なジェネレータをよく訓練するために、頻繁に使用されるVGG特徴整合損失を除いて、新しい自己誘導回帰損失を設計する。
また、局所的・グローバルな分枝を持つ識別器を用いて、局所的・グローバルな内容の整合性を確保する。
論文 参考訳(メタデータ) (2020-02-07T03:45:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。