論文の概要: One Thing to Fool them All: Generating Interpretable, Universal, and
Physically-Realizable Adversarial Features
- arxiv url: http://arxiv.org/abs/2110.03605v1
- Date: Thu, 7 Oct 2021 16:33:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-08 19:45:47.312823
- Title: One Thing to Fool them All: Generating Interpretable, Universal, and
Physically-Realizable Adversarial Features
- Title(参考訳): すべてを騙す1つのこと:解釈可能、普遍的、物理的に実現可能な敵対的特徴の生成
- Authors: Stephen Casper, Max Nadeau, Gabriel Kreiman
- Abstract要約: 深層画像生成装置と新しい最適化目標を用いた特徴レベルの対向摂動を開発する。
汎用性を示し、ImageNetスケールでターゲット機能レベルの攻撃を発生させる。
これらの攻撃は、スプリケートで意味論的に説明可能な機能/クラスアソシエーションを明らかにすることもできる。
- 参考スコア(独自算出の注目度): 5.156484100374058
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: It is well understood that modern deep networks are vulnerable to adversarial
attacks. However, conventional methods fail to produce adversarial
perturbations that are intelligible to humans, and they pose limited threats in
the physical world. To study feature-class associations in networks and better
understand the real-world threats they face, we develop feature-level
adversarial perturbations using deep image generators and a novel optimization
objective. We term these feature-fool attacks. We show that they are versatile
and use them to generate targeted feature-level attacks at the ImageNet scale
that are simultaneously interpretable, universal to any source image, and
physically-realizable. These attacks can also reveal spurious,
semantically-describable feature/class associations, and we use them to guide
the design of "copy/paste" adversaries in which one natural image is pasted
into another to cause a targeted misclassification.
- Abstract(参考訳): 現代のディープネットワークは敵の攻撃に弱いことはよく理解されている。
しかし、従来の手法では、人間に分かりやすい反抗的な摂動は生じず、物理的な世界では限定的な脅威となる。
ネットワークにおける特徴クラスの関連を研究し,それらが直面する現実世界の脅威をよりよく理解するために,深層画像生成器と新しい最適化目標を用いて,特徴レベルの敵対的摂動を開発する。
これらの機能的攻撃を「機能的攻撃」と呼ぶ。
我々は、これらが汎用性を示し、ImageNetスケールでターゲット機能レベルの攻撃を発生させ、同時に解釈可能で、任意のソースイメージに普遍的で、物理的に実現可能であることを示す。
これらの攻撃はまた、スプリケートで意味論的に説明可能な特徴/階級関係を明らかにし、ある自然なイメージを別のものに貼り付け、ターゲットの誤分類を引き起こす「コピー/ペースト」敵の設計を誘導するためにそれらを使用する。
関連論文リスト
- Any Target Can be Offense: Adversarial Example Generation via Generalized Latent Infection [83.72430401516674]
GAKerは任意のターゲットクラスに対して逆例を構築することができる。
本手法は,未知のクラスに対する攻撃成功率を約14.13%で達成する。
論文 参考訳(メタデータ) (2024-07-17T03:24:09Z) - Improving Adversarial Robustness via Decoupled Visual Representation Masking [65.73203518658224]
本稿では,特徴分布の観点から,ロバストな特徴の2つの新しい特性を強調した。
現状の防衛手法は、上記の2つの問題にうまく対処することを目的としている。
具体的には、分離された視覚的表現マスキングに基づく、シンプルだが効果的な防御法を提案する。
論文 参考訳(メタデータ) (2024-06-16T13:29:41Z) - Forging the Forger: An Attempt to Improve Authorship Verification via Data Augmentation [52.72682366640554]
著者検証(英語: Authorship Verification, AV)とは、ある特定の著者によって書かれたか、別の人物によって書かれたのかを推測するテキスト分類タスクである。
多くのAVシステムは敵の攻撃に弱いことが示されており、悪意のある著者は、その書体スタイルを隠蔽するか、あるいは他の著者の書体を模倣することによって、積極的に分類者を騙そうとしている。
論文 参考訳(メタデータ) (2024-03-17T16:36:26Z) - Counterfactual Image Generation for adversarially robust and
interpretable Classifiers [1.3859669037499769]
本稿では,GAN(Generative Adrial Networks)を基盤として,画像から画像への変換を利用した統合フレームワークを提案する。
これは、分類器と識別器を1つのモデルに組み合わせて、実際の画像をそれぞれのクラスに属性付け、生成されたイメージを「フェイク」として生成することで達成される。
モデルが敵攻撃に対するロバスト性の向上を示すことを示すとともに,判別器の「フェイクネス」値が予測の不確かさの指標となることを示す。
論文 参考訳(メタデータ) (2023-10-01T18:50:29Z) - Investigating Human-Identifiable Features Hidden in Adversarial
Perturbations [54.39726653562144]
我々の研究では、最大5つの攻撃アルゴリズムを3つのデータセットにわたって探索する。
対人摂動における人間の識別可能な特徴を同定する。
画素レベルのアノテーションを用いて、そのような特徴を抽出し、ターゲットモデルに妥協する能力を実証する。
論文 参考訳(メタデータ) (2023-09-28T22:31:29Z) - Towards A Conceptually Simple Defensive Approach for Few-shot
classifiers Against Adversarial Support Samples [107.38834819682315]
本研究は,数発の分類器を敵攻撃から守るための概念的簡便なアプローチについて検討する。
本稿では,自己相似性とフィルタリングの概念を用いた簡易な攻撃非依存検出法を提案する。
ミニイメージネット(MI)とCUBデータセットの攻撃検出性能は良好である。
論文 参考訳(メタデータ) (2021-10-24T05:46:03Z) - Adversarial examples by perturbing high-level features in intermediate
decoder layers [0.0]
画素を摂動する代わりに、入力画像のエンコーダ-デコーダ表現とデコーダの中間層を摂動する。
我々の摂動は、より長いくちばしや緑のくちばしのような意味的な意味を持っている。
本手法は,敵の攻撃に対して,敵の訓練に基づく防御技術が脆弱であることを示す。
論文 参考訳(メタデータ) (2021-10-14T07:08:15Z) - Attack to Fool and Explain Deep Networks [59.97135687719244]
対人摂動における人為的意味のパターンの証拠を提供することによって、私たちは逆転する。
我々の主な貢献は、その後視覚モデルを理解するためのツールに変換される、新しい実用的対人攻撃である。
論文 参考訳(メタデータ) (2021-06-20T03:07:36Z) - AdvFlow: Inconspicuous Black-box Adversarial Attacks using Normalizing
Flows [11.510009152620666]
本稿では,画像分類器に対する新たなブラックボックス攻撃手法であるAdvFlowを紹介する。
提案手法では, クリーンなデータ分布に密接に従う敵が生成され, 検出の可能性が低下する。
論文 参考訳(メタデータ) (2020-07-15T02:13:49Z) - Generating Semantic Adversarial Examples via Feature Manipulation [23.48763375455514]
本稿では,意味的意味を持つ構造的摂動を設計することで,より現実的な敵攻撃を提案する。
提案手法は,非絡み付きラテント符号を用いて画像の意味的属性を演算する。
我々は、普遍的で画像に依存しないセマンティック・逆境の例の存在を実証する。
論文 参考訳(メタデータ) (2020-01-06T06:28:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。