論文の概要: Adversarial Image Generation by Spatial Transformation in Perceptual
Colorspaces
- arxiv url: http://arxiv.org/abs/2310.13950v1
- Date: Sat, 21 Oct 2023 09:07:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-25 04:29:54.658840
- Title: Adversarial Image Generation by Spatial Transformation in Perceptual
Colorspaces
- Title(参考訳): 空間変換による知覚色空間の逆画像生成
- Authors: Ayberk Aydin, Alptekin Temizel
- Abstract要約: ディープニューラルネットワークは敵の摂動に弱いことが知られている。
本研究では,空間変換を適用して,逆の例を生成する手法を提案する。
対象とするホワイトボックス攻撃において,提案手法は高い信頼性で,競争力のある不正行為率を得ることができる。
- 参考スコア(独自算出の注目度): 4.02487511510606
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Deep neural networks are known to be vulnerable to adversarial perturbations.
The amount of these perturbations are generally quantified using $L_p$ metrics,
such as $L_0$, $L_2$ and $L_\infty$. However, even when the measured
perturbations are small, they tend to be noticeable by human observers since
$L_p$ distance metrics are not representative of human perception. On the other
hand, humans are less sensitive to changes in colorspace. In addition, pixel
shifts in a constrained neighborhood are hard to notice. Motivated by these
observations, we propose a method that creates adversarial examples by applying
spatial transformations, which creates adversarial examples by changing the
pixel locations independently to chrominance channels of perceptual colorspaces
such as $YC_{b}C_{r}$ and $CIELAB$, instead of making an additive perturbation
or manipulating pixel values directly. In a targeted white-box attack setting,
the proposed method is able to obtain competitive fooling rates with very high
confidence. The experimental evaluations show that the proposed method has
favorable results in terms of approximate perceptual distance between benign
and adversarially generated images. The source code is publicly available at
https://github.com/ayberkydn/stadv-torch
- Abstract(参考訳): ディープニューラルネットワークは敵の摂動に弱いことが知られている。
これらの摂動の量は通常、$L_0$、$L_2$、$L_\infty$のような$L_p$メトリクスを使って定量化される。
しかしながら、測定された摂動が小さい場合でも、L_p$距離の計測値が人間の知覚を表わさないため、人間の観察者によって注目される傾向がある。
一方、人間は色空間の変化にあまり敏感ではない。
さらに、制約された近傍でのピクセルシフトに気づくことは困難である。
そこで本研究では,yc_{b}c_{r}$やcielab$といった知覚的な色空間の彩度チャネルとは独立に画素位置を変更することで,付加的な摂動やピクセル値を直接操作するのではなく,逆向きの例を作成する手法を提案する。
目標のホワイトボックス攻撃設定において,提案手法は高い信頼度で競争的騙し率を得ることができる。
実験結果から,提案手法は良性画像と逆生成画像との近似知覚距離の点で良好な結果が得られることがわかった。
ソースコードはhttps://github.com/ayberkydn/stadv-torchで公開されている。
関連論文リスト
- Imperceptible Adversarial Examples by Spatial Chroma-Shift [1.5749416770494706]
本稿では,入力画像の色成分のみを変更して,逆例を生成する手法を提案する。
人間の視覚知覚研究は、これらの例がより自然に見え、しばしば元のものと区別できないことを証明している。
論文 参考訳(メタデータ) (2021-08-05T10:19:23Z) - Transferable Sparse Adversarial Attack [62.134905824604104]
オーバーフィッティング問題を緩和するジェネレータアーキテクチャを導入し、転送可能なスパース対逆例を効率的に作成する。
提案手法は,他の最適化手法よりも700$times$高速な推論速度を実現する。
論文 参考訳(メタデータ) (2021-05-31T06:44:58Z) - Feature Space Targeted Attacks by Statistic Alignment [74.40447383387574]
特徴空間ターゲットは、中間特徴写像を変調して摂動画像を攻撃する。
画素ワイドユークリッド距離の現在の選択は、ソースとターゲットの特徴に不合理に空間整合性制約を課すため、不一致を測定することが疑問視されている。
本稿では,Pair-wise Alignment AttackとGlobal-wise Alignment Attackという2つの新しい手法を提案する。
論文 参考訳(メタデータ) (2021-05-25T03:46:39Z) - Shift Invariance Can Reduce Adversarial Robustness [20.199887291186364]
シフト不変性は、分類のパフォーマンスを向上させるCNNの重要な特性です。
円偏移に対する不変性は、敵の攻撃に対する感受性を高めることも示している。
論文 参考訳(メタデータ) (2021-03-03T21:27:56Z) - Patch-wise++ Perturbation for Adversarial Targeted Attacks [132.58673733817838]
トランスファビリティの高い対比例の作成を目的としたパッチワイズ反復法(PIM)を提案する。
具体的には、各イテレーションのステップサイズに増幅係数を導入し、$epsilon$-constraintをオーバーフローする1ピクセルの全体的な勾配が、その周辺領域に適切に割り当てられる。
現在の攻撃方法と比較して、防御モデルでは35.9%、通常訓練されたモデルでは32.7%、成功率を大幅に向上させた。
論文 参考訳(メタデータ) (2020-12-31T08:40:42Z) - What Does CNN Shift Invariance Look Like? A Visualization Study [87.79405274610681]
畳み込みニューラルネットワーク(CNN)による特徴抽出は、機械学習タスクの画像を表現する一般的な方法である。
我々は,一般的な市販CNNモデルから抽出した特徴量の変動を計測し,可視化することに注力する。
人気ネットワークから抽出された特徴はグローバルに不変ではなく,この分散の中にバイアスやアーティファクトが存在すると結論付けている。
論文 参考訳(メタデータ) (2020-11-09T01:16:30Z) - GreedyFool: Distortion-Aware Sparse Adversarial Attack [138.55076781355206]
現代のディープニューラルネットワーク(DNN)は、敵のサンプルに対して脆弱である。
スパース逆数サンプルは、数ピクセルだけを摂動させることでターゲットモデルを騙すことができる。
GreedyFoolと呼ばれる2段階の歪みを考慮したグリーディ法を提案する。
論文 参考訳(メタデータ) (2020-10-26T17:59:07Z) - Toward Adversarial Robustness via Semi-supervised Robust Training [93.36310070269643]
アドリラルな例は、ディープニューラルネットワーク(DNN)に対する深刻な脅威であることが示されている。
R_stand$ と $R_rob$ の2つの異なるリスクを共同で最小化することで、新しい防御手法であるロバストトレーニング(RT)を提案する。
論文 参考訳(メタデータ) (2020-03-16T02:14:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。