論文の概要: Towards Feature Space Adversarial Attack
- arxiv url: http://arxiv.org/abs/2004.12385v2
- Date: Wed, 16 Dec 2020 03:47:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-09 13:17:10.988050
- Title: Towards Feature Space Adversarial Attack
- Title(参考訳): 特集にあたって
- Authors: Qiuling Xu, Guanhong Tao, Siyuan Cheng, Xiangyu Zhang
- Abstract要約: 本稿では,画像分類のためのニューラルネットに対する新たな敵攻撃を提案する。
私たちの攻撃は、抽象的な特徴、具体的にはスタイルを表す特徴の摂動に焦点を当てています。
我々の攻撃は、最先端の攻撃よりも自然に見える敵のサンプルを生成できることを示す。
- 参考スコア(独自算出の注目度): 18.874224858723494
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a new adversarial attack to Deep Neural Networks for image
classification. Different from most existing attacks that directly perturb
input pixels, our attack focuses on perturbing abstract features, more
specifically, features that denote styles, including interpretable styles such
as vivid colors and sharp outlines, and uninterpretable ones. It induces model
misclassfication by injecting imperceptible style changes through an
optimization procedure. We show that our attack can generate adversarial
samples that are more natural-looking than the state-of-the-art unbounded
attacks. The experiment also supports that existing pixel-space adversarial
attack detection and defense techniques can hardly ensure robustness in the
style related feature space.
- Abstract(参考訳): 本稿では,画像分類のためのニューラルネットに対する新たな敵攻撃を提案する。
入力ピクセルを直接摂動する既存の攻撃とは異なり、我々の攻撃は、より具体的には、鮮やかな色やシャープなアウトラインなどの解釈可能なスタイルや、解釈不能な特徴を含む、抽象的な特徴の摂動に焦点を当てている。
最適化手順を通じて不可避なスタイル変更を注入することで、モデル誤分類を誘発する。
我々の攻撃は、最先端の非有界攻撃よりも自然に見える敵のサンプルを生成できることを示す。
この実験は、既存の画素空間の対向攻撃検出と防御技術が、スタイルに関連した特徴空間におけるロバスト性をほとんど保証できないことも裏付けている。
関連論文リスト
- Imperceptible Face Forgery Attack via Adversarial Semantic Mask [59.23247545399068]
本稿では, 対向性, 可視性に優れた対向性例を生成できるASMA(Adversarial Semantic Mask Attack framework)を提案する。
具体的には, 局所的なセマンティック領域の摂動を抑制し, 良好なステルス性を実現する, 対向型セマンティックマスク生成モデルを提案する。
論文 参考訳(メタデータ) (2024-06-16T10:38:11Z) - Diffusion Attack: Leveraging Stable Diffusion for Naturalistic Image Attacking [6.761535322353205]
VR(Virtual Reality)では、敵の攻撃は依然として重大なセキュリティ上の脅威である。
身体的およびデジタル的敵攻撃のためのディープラーニングに基づくほとんどの手法は、攻撃性能の向上に重点を置いている。
本稿では,最小限の検出可能性と最大自然外観を示す自然スタイルのクラフト逆入力にスタイル転送を組み込む枠組みを提案する。
論文 参考訳(メタデータ) (2024-03-21T18:49:20Z) - Content-based Unrestricted Adversarial Attack [53.181920529225906]
本稿では,コンテンツベース非制限攻撃という新たな非制限攻撃フレームワークを提案する。
自然像を表す低次元多様体を利用することで、像を多様体上に写像し、その逆方向に沿って最適化する。
論文 参考訳(メタデータ) (2023-05-18T02:57:43Z) - StyLess: Boosting the Transferability of Adversarial Examples [10.607781970035083]
敵対的攻撃は、良心的な例に知覚できない摂動を加えることによって、ディープニューラルネットワーク(DNN)を誤解させる可能性がある。
本研究では,攻撃伝達性を向上させるために,スタイルレス摂動(StyLess)と呼ばれる新たな攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-04-23T08:23:48Z) - Adv-Attribute: Inconspicuous and Transferable Adversarial Attack on Face
Recognition [111.1952945740271]
Adv-Attribute (Adv-Attribute) は、顔認証に対する不明瞭で伝達可能な攻撃を生成するように設計されている。
FFHQとCelebA-HQデータセットの実験は、提案されたAdv-Attributeメソッドが最先端の攻撃成功率を達成することを示している。
論文 参考訳(メタデータ) (2022-10-13T09:56:36Z) - Shadows can be Dangerous: Stealthy and Effective Physical-world
Adversarial Attack by Natural Phenomenon [79.33449311057088]
我々は、非常に一般的な自然現象であるシャドーによって摂動が生じる新しい種類の光対角運動例について研究する。
我々は,シミュレーション環境と実環境の両方において,この新たな攻撃の有効性を広く評価した。
論文 参考訳(メタデータ) (2022-03-08T02:40:18Z) - Towards Defending against Adversarial Examples via Attack-Invariant
Features [147.85346057241605]
ディープニューラルネットワーク(DNN)は敵の雑音に弱い。
敵の強靭性は、敵の例を利用して改善することができる。
目に見えない種類の敵の例に基づいて訓練されたモデルは、一般的に、目に見えない種類の敵の例にうまく一般化できない。
論文 参考訳(メタデータ) (2021-06-09T12:49:54Z) - Perception Improvement for Free: Exploring Imperceptible Black-box
Adversarial Attacks on Image Classification [27.23874129994179]
ホワイトボックスの敵攻撃は、特に大きな画像の場合、小さな摂動を伴うニューラルネットワークを騙すことができる。
逆行性摂動を成功させることは、特にトランスファーベースのブラックボックス逆行攻撃では困難である。
本稿では,心理的知覚モデルに基づく対向画像の生成による構造認識型対向攻撃を提案する。
論文 参考訳(メタデータ) (2020-10-30T07:17:12Z) - Learning to Attack with Fewer Pixels: A Probabilistic Post-hoc Framework
for Refining Arbitrary Dense Adversarial Attacks [21.349059923635515]
敵対的回避攻撃は ディープニューラルネットワーク画像分類器に 影響を受けやすいと報告されている
本稿では,乱れ画素数を著しく減少させることで,高密度攻撃を抑える確率的ポストホックフレームワークを提案する。
我々のフレームワークは、既存のスパース攻撃よりもはるかに高速に敵攻撃を行う。
論文 参考訳(メタデータ) (2020-10-13T02:51:10Z) - Patch-wise Attack for Fooling Deep Neural Network [153.59832333877543]
我々は,一般的な訓練と防御モデルに対するブラックボックス攻撃であるパッチワイド反復アルゴリズムを提案する。
我々は、防衛モデルで9.2%、通常訓練されたモデルで3.7%、成功率で著しく改善した。
論文 参考訳(メタデータ) (2020-07-14T01:50:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。