論文の概要: Towards Imperceptible Universal Attacks on Texture Recognition
- arxiv url: http://arxiv.org/abs/2011.11957v1
- Date: Tue, 24 Nov 2020 08:33:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-21 13:29:46.678450
- Title: Towards Imperceptible Universal Attacks on Texture Recognition
- Title(参考訳): テクスチャ認識における知覚不能な普遍的攻撃に向けて
- Authors: Yingpeng Deng and Lina J. Karam
- Abstract要約: 空間領域における摂動の$l_p$ノルムの制限は,テクスチャ画像に対する普遍的対向摂動の知覚性を制限するには適さないと考えられる。
周波数領域における普遍摂動を計算するために,周波数調整型ユニバーサルアタック手法を提案する。
- 参考スコア(独自算出の注目度): 19.79803434998116
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Although deep neural networks (DNNs) have been shown to be susceptible to
image-agnostic adversarial attacks on natural image classification problems,
the effects of such attacks on DNN-based texture recognition have yet to be
explored. As part of our work, we find that limiting the perturbation's $l_p$
norm in the spatial domain may not be a suitable way to restrict the
perceptibility of universal adversarial perturbations for texture images. Based
on the fact that human perception is affected by local visual frequency
characteristics, we propose a frequency-tuned universal attack method to
compute universal perturbations in the frequency domain. Our experiments
indicate that our proposed method can produce less perceptible perturbations
yet with a similar or higher white-box fooling rates on various DNN texture
classifiers and texture datasets as compared to existing universal attack
techniques. We also demonstrate that our approach can improve the attack
robustness against defended models as well as the cross-dataset transferability
for texture recognition problems.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、自然画像分類問題に対する画像非依存の敵対攻撃に感受性があることが示されているが、そのような攻撃がDNNベースのテクスチャ認識に与える影響はまだ明らかになっていない。
我々の研究の一環として、空間領域における摂動の$l_p$ノルムを制限することは、テクスチャ画像に対する普遍的対角的摂動の知覚性を制限するには適さないかもしれない。
人間の知覚が局所的な視覚周波数特性に影響されているという事実に基づいて,周波数領域における普遍的摂動を計算するための周波数調整ユニバーサルアタック法を提案する。
提案手法は,既存のユニバーサルアタック手法と比較して,dnnテクスチャ分類器やテクスチャデータセットに類似し,あるいは高いホワイトボックス化率で,知覚可能な摂動を生成できることを示す。
また,本手法は,テクスチャ認識問題に対するクロスデータセット転送性だけでなく,防御モデルに対する攻撃堅牢性も向上できることを示す。
関連論文リスト
- Enhancing the Self-Universality for Transferable Targeted Attacks [88.6081640779354]
本手法は,高次対角的摂動が標的攻撃に対してより伝達しやすい傾向にあることを示す。
異なる画像上の摂動を最適化する代わりに、異なる領域を最適化して自己ユニバーシティを実現することで、余分なデータを排除することができる。
特徴的類似性欠如により,本手法は,良性画像よりも対向性摂動の特徴が支配的となる。
論文 参考訳(メタデータ) (2022-09-08T11:21:26Z) - Robust Real-World Image Super-Resolution against Adversarial Attacks [115.04009271192211]
準知覚不可能な雑音を持つ逆画像サンプルは、深層学習SRモデルを脅かす可能性がある。
本稿では,現実のSRに対して,潜在的な敵対的雑音をランダムに消去する頑健なディープラーニングフレームワークを提案する。
提案手法は敵攻撃に敏感であり,既存のモデルや防御よりも安定なSR結果を示す。
論文 参考訳(メタデータ) (2022-07-31T13:26:33Z) - Exploring Frequency Adversarial Attacks for Face Forgery Detection [59.10415109589605]
フェースフォージェリ検出器に対する周波数対向攻撃法を提案する。
また,メタラーニングの概念に触発されて,空間領域と周波数領域の両方で攻撃を行うハイブリッド逆攻撃を提案する。
論文 参考訳(メタデータ) (2022-03-29T15:34:13Z) - Frequency-driven Imperceptible Adversarial Attack on Semantic Similarity [22.28011382580367]
敵対的攻撃研究は、慎重に構築された摂動に対する学習ベースの分類器の脆弱性を明らかにする。
特徴表現における意味的類似性を攻撃する新しいアルゴリズムを提案する。
本稿では,高周波成分の摂動を制限するために低周波制約を導入する。
論文 参考訳(メタデータ) (2022-03-10T04:46:51Z) - On the Real-World Adversarial Robustness of Real-Time Semantic
Segmentation Models for Autonomous Driving [59.33715889581687]
現実世界の敵対的な例(通常はパッチの形で)の存在は、安全クリティカルなコンピュータビジョンタスクにおけるディープラーニングモデルの使用に深刻な脅威をもたらす。
本稿では,異なる種類の対立パッチを攻撃した場合のセマンティックセグメンテーションモデルのロバスト性を評価する。
画素の誤分類を誘導する攻撃者の能力を改善するために, 新たな損失関数を提案する。
論文 参考訳(メタデータ) (2022-01-05T22:33:43Z) - Stereoscopic Universal Perturbations across Different Architectures and
Datasets [60.021985610201156]
本研究では,画像の逆摂動が不均一性推定タスクの深部ステレオマッチングネットワークに与える影響について検討する。
本稿では,データセット内の任意のステレオ画像対に追加されると,ステレオネットワークを騙すことのできる,単一の摂動セットを構築する方法を提案する。
我々の摂動は、最先端のステレオネットワークのD1エラーを1%から87%に増やすことができる。
論文 参考訳(メタデータ) (2021-12-12T02:11:31Z) - Universal Adversarial Perturbations Through the Lens of Deep
Steganography: Towards A Fourier Perspective [78.05383266222285]
人間の知覚不能な摂動は、ほとんどの画像のディープニューラルネットワーク(DNN)をだますために生成することができる。
ディープステガノグラフィタスクでは同様の現象が観測されており、デコーダネットワークはわずかに乱れたカバー画像から秘密の画像を取得することができる。
1)攻撃と隠蔽を同時に行うユニバーサル・シークレット・アドバイサル・パーターベーション(USAP)、(2)人間の目では見えないハイパスUAP(HP-UAP)の2つの新しい変種を提案する。
論文 参考訳(メタデータ) (2021-02-12T12:26:39Z) - A Study for Universal Adversarial Attacks on Texture Recognition [19.79803434998116]
テストされたテクスチャデータセットの80%以上で、ディープラーニングモデルを騙すことができる画像非依存/普遍的摂動が存在することを示す。
テストデータセット上の様々な攻撃手法を用いた計算摂動は、概して準知覚可能であり、低、中、高周波数成分の構造化パターンを含む。
論文 参考訳(メタデータ) (2020-10-04T08:11:11Z) - Frequency-Tuned Universal Adversarial Attacks [19.79803434998116]
本稿では,周波数調整型ユニバーサルアタック手法を提案する。
提案手法は, 誤認識率の観点から, 知覚可能性と有効性とのバランスが良好であることを示す。
論文 参考訳(メタデータ) (2020-03-11T22:52:19Z) - Adversarial Attacks on Convolutional Neural Networks in Facial
Recognition Domain [2.4704085162861693]
Deep Neural Network(DNN)分類器を実生活で脆弱にする敵攻撃は、自動運転車、マルウェアフィルター、生体認証システムにおいて深刻な脅威となる。
我々はFast Gradient Sign Methodを適用し、顔画像データセットに摂動を導入し、異なる分類器で出力をテストする。
我々は、最小の敵対的知識を前提に、さまざまなブラックボックス攻撃アルゴリズムを顔画像データセット上に構築する。
論文 参考訳(メタデータ) (2020-01-30T00:25:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。