論文の概要: Certified Defences Against Adversarial Patch Attacks on Semantic
Segmentation
- arxiv url: http://arxiv.org/abs/2209.05980v1
- Date: Tue, 13 Sep 2022 13:24:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-14 12:11:46.922350
- Title: Certified Defences Against Adversarial Patch Attacks on Semantic
Segmentation
- Title(参考訳): セマンティクスセグメンテーションにおける敵対的パッチ攻撃に対する認定防御
- Authors: Maksym Yatsura, Kaspar Sakmann, N. Grace Hua, Matthias Hein and Jan
Hendrik Metzen
- Abstract要約: Demasked Smoothingは、パッチ攻撃に対するセマンティックセグメンテーションモデルの堅牢性を証明するための最初のアプローチである。
Demasked Smoothingは、さまざまなマスキング戦略を使用して、認証検出と認定回復の両方に適用することができる。
大規模な実験では、Demasked Smoothingが検出タスクにおける1%パッチの画素予測の64%、ADE20Kデータセットのリカバリタスクの0.5%パッチに対して48%を平均で認証できることが示されている。
- 参考スコア(独自算出の注目度): 44.13336566131961
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial patch attacks are an emerging security threat for real world deep
learning applications. We present Demasked Smoothing, the first approach (up to
our knowledge) to certify the robustness of semantic segmentation models
against this threat model. Previous work on certifiably defending against patch
attacks has mostly focused on image classification task and often required
changes in the model architecture and additional training which is undesirable
and computationally expensive. In Demasked Smoothing, any segmentation model
can be applied without particular training, fine-tuning, or restriction of the
architecture. Using different masking strategies, Demasked Smoothing can be
applied both for certified detection and certified recovery. In extensive
experiments we show that Demasked Smoothing can on average certify 64% of the
pixel predictions for a 1% patch in the detection task and 48% against a 0.5%
patch for the recovery task on the ADE20K dataset.
- Abstract(参考訳): 敵対的パッチ攻撃は、現実世界のディープラーニングアプリケーションにとって新たなセキュリティ脅威だ。
私たちは、この脅威モデルに対するセマンティックセグメンテーションモデルの堅牢性を証明する最初のアプローチであるDemasked Smoothingを紹介します。
パッチ攻撃に対する認証可能な防御に関する以前の作業は、主に画像分類タスクに焦点を当てており、しばしばモデルアーキテクチャの変更と、望ましくない計算コストの高い追加トレーニングを必要としている。
Demasked Smoothingでは、特定のトレーニング、微調整、アーキテクチャの制限なしにセグメンテーションモデルを適用することができる。
Demasked Smoothingは、さまざまなマスキング戦略を使用して、認証検出と認定回復の両方に適用することができる。
広範な実験により,ade20kデータセットの復元タスクに対する0.5%のパッチに対して,検出タスクの1%のパッチに対するピクセル予測の64%を平均で証明できることがわかった。
関連論文リスト
- Anomaly Unveiled: Securing Image Classification against Adversarial
Patch Attacks [3.6275442368775512]
敵対的パッチ攻撃は、ディープラーニングシステムの実践的な展開に重大な脅威をもたらす。
本稿では,画像情報の分布における逆パッチの異常としての挙動について検討する。
提案する防御機構は,DBSCANと呼ばれるクラスタリング技術を用いて,異常な画像セグメントを分離する。
論文 参考訳(メタデータ) (2024-02-09T08:52:47Z) - Can We Trust the Unlabeled Target Data? Towards Backdoor Attack and Defense on Model Adaptation [120.42853706967188]
本研究は, よく設計された毒物標的データによるモデル適応に対するバックドア攻撃の可能性を探る。
既存の適応アルゴリズムと組み合わせたMixAdaptというプラグイン・アンド・プレイ方式を提案する。
論文 参考訳(メタデータ) (2024-01-11T16:42:10Z) - Task-agnostic Defense against Adversarial Patch Attacks [25.15948648034204]
対向パッチは、指定された局所領域内に対向画素を注入することにより、誤誘導ニューラルネットワークを攻撃する。
我々は、ホワイトボックスの敵パッチに対するタスク非依存の防御であるPatchZeroを提示する。
本手法は, 良性性能の劣化を伴わずに, SOTAの頑健な精度を実現する。
論文 参考訳(メタデータ) (2022-07-05T03:49:08Z) - Towards Practical Certifiable Patch Defense with Vision Transformer [34.00374565048962]
視覚変換器(ViT)を非ランダム化平滑化(DS)の枠組みに導入する。
実世界における効率的な推論と展開のために,我々は,オリジナルViTのグローバルな自己アテンション構造を,孤立バンド単位の自己アテンションに革新的に再構築する。
論文 参考訳(メタデータ) (2022-03-16T10:39:18Z) - ObjectSeeker: Certifiably Robust Object Detection against Patch Hiding
Attacks via Patch-agnostic Masking [95.6347501381882]
物体探知機は物理的世界のパッチ隠蔽攻撃に弱いことが判明した。
我々は,堅牢なオブジェクト検出器を構築するためのフレームワークとしてObjectSeekerを提案する。
論文 参考訳(メタデータ) (2022-02-03T19:34:25Z) - Segment and Complete: Defending Object Detectors against Adversarial
Patch Attacks with Robust Patch Detection [142.24869736769432]
敵のパッチ攻撃は最先端の物体検出器に深刻な脅威をもたらす。
パッチ攻撃に対して物体検出器を防御するフレームワークであるSegment and Complete Defense (SAC)を提案する。
SACは、物理的パッチ攻撃の標的攻撃成功率を著しく低減できることを示す。
論文 参考訳(メタデータ) (2021-12-08T19:18:48Z) - PatchCensor: Patch Robustness Certification for Transformers via
Exhaustive Testing [7.88628640954152]
Vision Transformer (ViT)は、他の古典的ニューラルネットワークと同様に非常に非線形であることが知られており、自然なパッチの摂動と逆パッチの摂動の両方によって容易に騙される。
この制限は、特に安全クリティカルなシナリオにおいて、実際の産業環境におけるViTの展開に脅威をもたらす可能性がある。
PatchCensorを提案する。このPatchCensorは、徹底的なテストを適用することで、ViTのパッチ堅牢性を証明することを目的としている。
論文 参考訳(メタデータ) (2021-11-19T23:45:23Z) - PatchCleanser: Certifiably Robust Defense against Adversarial Patches
for Any Image Classifier [30.559585856170216]
画像分類モデルに対する逆パッチ攻撃は、局所化された制限された画像領域(すなわち、パッチ)に逆向きに作られたピクセルを注入することを目的としている。
我々はPatchCleanserを,任意の画像分類モデルと互換性のある敵パッチに対する堅牢な防御法として提案する。
我々は,ImageNet, ImageNette, CIFAR-10, CIFAR-100, SVHN, Flowers-102データセットに対する防御効果を広く評価した。
論文 参考訳(メタデータ) (2021-08-20T12:09:33Z) - Hidden Backdoor Attack against Semantic Segmentation Models [60.0327238844584]
Emphbackdoor攻撃は、深層ニューラルネットワーク(DNN)に隠れたバックドアを埋め込み、トレーニングデータに毒を盛ることを目的としている。
我々は,対象ラベルを画像レベルではなくオブジェクトレベルから扱う,新たな攻撃パラダイムであるemphfine-fine-grained attackを提案する。
実験により、提案手法はわずかなトレーニングデータだけを毒殺することでセマンティックセグメンテーションモデルを攻撃することに成功した。
論文 参考訳(メタデータ) (2021-03-06T05:50:29Z) - (De)Randomized Smoothing for Certifiable Defense against Patch Attacks [136.79415677706612]
我々は、所定の画像とパッチ攻撃サイズを保証する、パッチ攻撃に対する認証可能な防御を導入する。
本手法はランダム化スムースなロバスト性スキームの幅広いクラスに関係している。
その結果,CIFAR-10およびImageNetに対するパッチ攻撃に対する認証済みの防御技術が確立した。
論文 参考訳(メタデータ) (2020-02-25T08:39:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。