論文の概要: On the Feasibility and Generality of Patch-based Adversarial Attacks on
Semantic Segmentation Problems
- arxiv url: http://arxiv.org/abs/2205.10539v1
- Date: Sat, 21 May 2022 08:49:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-24 15:16:11.360893
- Title: On the Feasibility and Generality of Patch-based Adversarial Attacks on
Semantic Segmentation Problems
- Title(参考訳): セマンティックセグメンテーション問題に対するパッチベースの敵攻撃の可能性と一般性について
- Authors: Soma Kontar, Andras Horvath
- Abstract要約: 安全上の重要なユースケースでは、敵の攻撃は依然として重大な脅威となる。
単純なケーススタディを通じて、パッチベースの攻撃がセグメンテーションネットワークの出力を変更するために利用されることを実証する。
これらの結果に基づいて、ほとんどのパッチベースの攻撃が実際には一般的なものではないことを証明します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks were applied with success in a myriad of applications,
but in safety critical use cases adversarial attacks still pose a significant
threat. These attacks were demonstrated on various classification and detection
tasks and are usually considered general in a sense that arbitrary network
outputs can be generated by them.
In this paper we will demonstrate through simple case studies both in
simulation and in real-life, that patch based attacks can be utilised to alter
the output of segmentation networks. Through a few examples and the
investigation of network complexity, we will also demonstrate that the number
of possible output maps which can be generated via patch-based attacks of a
given size is typically smaller than the area they effect or areas which should
be attacked in case of practical applications.
We will prove that based on these results most patch-based attacks cannot be
general in practice, namely they can not generate arbitrary output maps or if
they could, they are spatially limited and this limit is significantly smaller
than the receptive field of the patches.
- Abstract(参考訳): ディープニューラルネットワークは、無数のアプリケーションで成功したが、安全上の重要なユースケースでは、敵の攻撃は依然として重大な脅威である。
これらの攻撃は様々な分類と検出タスクで実証され、通常は任意のネットワーク出力を生成できるという意味で一般的なものとみなされる。
本稿では,シミュレーションと実生活の両方において単純なケーススタディを通じて,セグメント化ネットワークの出力を変化させるためにパッチ攻撃を活用できることを実証する。
ネットワークの複雑さに関するいくつかの例と調査を通じて、特定のサイズのパッチベースの攻撃によって生成される可能性のあるアウトプットマップの数は、通常、それらが作用する領域や実用的用途で攻撃されるべき領域よりも小さいことを実証する。
これらの結果に基づいて、ほとんどのパッチベースの攻撃は、実際には、任意の出力マップを生成できない、あるいは可能であれば空間的に制限されており、パッチの受容領域よりもかなり小さい、という、一般的には不可能であることを示す。
関連論文リスト
- On Trace of PGD-Like Adversarial Attacks [77.75152218980605]
敵対的攻撃は、ディープラーニングアプリケーションに対する安全性とセキュリティ上の懸念を引き起こす。
モデルの勾配一貫性を反映した適応応答特性(ARC)特性を構築する。
私たちの方法は直感的で、軽量で、非侵襲的で、データ不要です。
論文 参考訳(メタデータ) (2022-05-19T14:26:50Z) - Identification of Attack-Specific Signatures in Adversarial Examples [62.17639067715379]
異なる攻撃アルゴリズムは, その効果だけでなく, 被害者の質的な影響も示している。
以上の結果から, 予測的対人攻撃は, 模擬モデルにおける成功率だけでなく, 被害者に対するより深い下流効果によって比較されるべきであることが示唆された。
論文 参考訳(メタデータ) (2021-10-13T15:40:48Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - Learning and Certification under Instance-targeted Poisoning [49.55596073963654]
インスタンスターゲット中毒攻撃におけるPAC学習性と認証について検討する。
敵の予算がサンプルの複雑さに比例してスケールすると、PACの学習性と認定が達成可能であることを示す。
実データセット上でのK近傍, ロジスティック回帰, 多層パーセプトロン, 畳み込みニューラルネットワークの堅牢性を実証的に検討する。
論文 参考訳(メタデータ) (2021-05-18T17:48:15Z) - Hidden Backdoor Attack against Semantic Segmentation Models [60.0327238844584]
Emphbackdoor攻撃は、深層ニューラルネットワーク(DNN)に隠れたバックドアを埋め込み、トレーニングデータに毒を盛ることを目的としている。
我々は,対象ラベルを画像レベルではなくオブジェクトレベルから扱う,新たな攻撃パラダイムであるemphfine-fine-grained attackを提案する。
実験により、提案手法はわずかなトレーニングデータだけを毒殺することでセマンティックセグメンテーションモデルを攻撃することに成功した。
論文 参考訳(メタデータ) (2021-03-06T05:50:29Z) - Universal Adversarial Perturbations for Malware [15.748648955898528]
universal adversarial perturbation (uaps) は入力空間全体に一般化するノイズパターンを特定する。
マルウェア分類におけるUAPの課題と強みについて検討する。
本稿では,問題空間変換に基づく知識を用いた逆トレーニングに基づく緩和を提案する。
論文 参考訳(メタデータ) (2021-02-12T20:06:10Z) - Detecting Localized Adversarial Examples: A Generic Approach using
Critical Region Analysis [19.352676977713966]
本稿では,TintRadarと呼ばれる汎用防衛システムを提案する。
既存の防御ソリューションと比較すると、TaintRadarは高度に局所化された部分攻撃を効果的に捉えることができる。
デジタルと物理の両方の世界において、防衛の有効性と堅牢性を検証するための総合的な実験が実施されている。
論文 参考訳(メタデータ) (2021-02-10T03:31:16Z) - MixNet for Generalized Face Presentation Attack Detection [63.35297510471997]
我々は、プレゼンテーションアタックを検出するための、TextitMixNetと呼ばれるディープラーニングベースのネットワークを提案している。
提案アルゴリズムは最先端の畳み込みニューラルネットワークアーキテクチャを利用して,各攻撃カテゴリの特徴マッピングを学習する。
論文 参考訳(メタデータ) (2020-10-25T23:01:13Z) - Extending Adversarial Attacks to Produce Adversarial Class Probability
Distributions [1.439518478021091]
高い不正率を維持しながら,クラスに対する確率分布を近似できることを示す。
この結果から, クラスに対する確率分布は, 高い不正率を維持しつつ, 密に近似できることが示唆された。
論文 参考訳(メタデータ) (2020-04-14T09:39:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。