論文の概要: CertMask: Certifiable Defense Against Adversarial Patches via Theoretically Optimal Mask Coverage
- arxiv url: http://arxiv.org/abs/2511.09834v1
- Date: Fri, 14 Nov 2025 01:12:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-14 22:53:22.518687
- Title: CertMask: Certifiable Defense Against Adversarial Patches via Theoretically Optimal Mask Coverage
- Title(参考訳): CertMask:理論的に最適なマスクカバーによる敵のパッチに対する認証防御
- Authors: Xuntao Lyu, Ching-Chi Lin, Abdullah Al Arafat, Georg von der Brüggen, Jian-Jia Chen, Zhishan Guo,
- Abstract要約: アドリアパッチ攻撃は、画像に局所的な摂動を注入し、ディープビジョンモデルを誤解させる。
我々は、パッチ効果を中和するために、証明可能な十分なバイナリマスクセットを構築する堅牢なディフェンスであるCertMaskを提案する。
ImageNet、ImageNette、CIFAR-10の実験では、CertMaskはPatchCleanserよりも最大で13.4%精度が向上している。
- 参考スコア(独自算出の注目度): 8.28532056838617
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial patch attacks inject localized perturbations into images to mislead deep vision models. These attacks can be physically deployed, posing serious risks to real-world applications. In this paper, we propose CertMask, a certifiably robust defense that constructs a provably sufficient set of binary masks to neutralize patch effects with strong theoretical guarantees. While the state-of-the-art approach (PatchCleanser) requires two rounds of masking and incurs $O(n^2)$ inference cost, CertMask performs only a single round of masking with $O(n)$ time complexity, where $n$ is the cardinality of the mask set to cover an input image. Our proposed mask set is computed using a mathematically rigorous coverage strategy that ensures each possible patch location is covered at least $k$ times, providing both efficiency and robustness. We offer a theoretical analysis of the coverage condition and prove its sufficiency for certification. Experiments on ImageNet, ImageNette, and CIFAR-10 show that CertMask improves certified robust accuracy by up to +13.4\% over PatchCleanser, while maintaining clean accuracy nearly identical to the vanilla model.
- Abstract(参考訳): 敵対的パッチ攻撃は、画像に局所的な摂動を注入し、ディープビジョンモデルを誤解させる。
これらの攻撃は物理的に展開でき、現実世界のアプリケーションに深刻なリスクを及ぼす。
本稿では,強力な理論的保証でパッチ効果を中和するために,証明可能な十分なバイナリマスクセットを構築する,確実な堅牢な防御法であるCertMaskを提案する。
最先端のアプローチ(PatchCleanser)は2ラウンドのマスキングと$O(n^2)$推論コストを必要とするが、CertMaskは1ラウンドのマスキングのみを実行し、$O(n)$時間複雑性を持つ。
提案するマスクセットは数学的に厳密なカバレッジ戦略を用いて計算され、各パッチ位置が少なくとも$k$の時間でカバーされ、効率性とロバスト性の両方を提供する。
対象条件を理論的に分析し,その妥当性を実証する。
ImageNet、ImageNette、CIFAR-10の実験では、CertMaskは、バニラモデルとほぼ同一の精度を維持しながら、PatchCleanserよりも最大で+13.4\%の堅牢な精度を向上している。
関連論文リスト
- Learning Mask-aware CLIP Representations for Zero-Shot Segmentation [120.97144647340588]
Mask-awareProposals CLIP (IP-CLIP) は任意の数の画像とマスクの提案を同時に処理するために提案されている。
マスク認識損失と自己蒸留損失はIP-CLIPを微調整するように設計されており、CLIPが異なるマスク提案に応答することを保証している。
我々は、人気のあるゼロショットベンチマークで広範な実験を行う。
論文 参考訳(メタデータ) (2023-09-30T03:27:31Z) - Revisiting Image Classifier Training for Improved Certified Robust
Defense against Adversarial Patches [7.90470727433401]
本稿では,2ラウンドのグリーディマスキング戦略 (Greedy Cutout) を提案する。
私たちは、Greedy Cutoutでトレーニングされたモデルが、PatchCleanserのRandom Cutoutよりも、さまざまなデータセットの信頼性を向上できることを示します。
論文 参考訳(メタデータ) (2023-06-22T00:13:44Z) - Agnostic Multi-Robust Learning Using ERM [19.313739782029185]
頑健な学習における根本的な問題は非対称性である: 学習者は指数関数的に多くの摂動の全てを正しく分類する必要がある。
これとは対照的に、攻撃者は1つの摂動を成功させる必要がある。
本稿では,新しいマルチグループ設定を導入し,新しいマルチロバスト学習問題を提案する。
論文 参考訳(メタデータ) (2023-03-15T21:30:14Z) - Should You Mask 15% in Masked Language Modeling? [86.91486000124156]
マスク付き言語モデルは、従来は15%のマスキングレートを使用していた。
最大40%の入力トークンをマスクすることで、15%のベースラインを上回ります。
論文 参考訳(メタデータ) (2022-02-16T11:42:34Z) - Segment and Complete: Defending Object Detectors against Adversarial
Patch Attacks with Robust Patch Detection [142.24869736769432]
敵のパッチ攻撃は最先端の物体検出器に深刻な脅威をもたらす。
パッチ攻撃に対して物体検出器を防御するフレームワークであるSegment and Complete Defense (SAC)を提案する。
SACは、物理的パッチ攻撃の標的攻撃成功率を著しく低減できることを示す。
論文 参考訳(メタデータ) (2021-12-08T19:18:48Z) - Mask Transfiner for High-Quality Instance Segmentation [95.74244714914052]
高品質で効率的なインスタンスセグメンテーションのためのMask Transfinerを提案する。
当社のアプローチでは, エラーが発生しやすい木ノードを検出し, エラーを並列に自己修正する。
私たちのコードとトレーニングされたモデルは、http://vis.xyz/pub/transfiner.comで公開されます。
論文 参考訳(メタデータ) (2021-11-26T18:58:22Z) - PatchCensor: Patch Robustness Certification for Transformers via
Exhaustive Testing [7.88628640954152]
Vision Transformer (ViT)は、他の古典的ニューラルネットワークと同様に非常に非線形であることが知られており、自然なパッチの摂動と逆パッチの摂動の両方によって容易に騙される。
この制限は、特に安全クリティカルなシナリオにおいて、実際の産業環境におけるViTの展開に脅威をもたらす可能性がある。
PatchCensorを提案する。このPatchCensorは、徹底的なテストを適用することで、ViTのパッチ堅牢性を証明することを目的としている。
論文 参考訳(メタデータ) (2021-11-19T23:45:23Z) - PatchCleanser: Certifiably Robust Defense against Adversarial Patches
for Any Image Classifier [30.559585856170216]
画像分類モデルに対する逆パッチ攻撃は、局所化された制限された画像領域(すなわち、パッチ)に逆向きに作られたピクセルを注入することを目的としている。
我々はPatchCleanserを,任意の画像分類モデルと互換性のある敵パッチに対する堅牢な防御法として提案する。
我々は,ImageNet, ImageNette, CIFAR-10, CIFAR-100, SVHN, Flowers-102データセットに対する防御効果を広く評価した。
論文 参考訳(メタデータ) (2021-08-20T12:09:33Z) - Contrastive Context-Aware Learning for 3D High-Fidelity Mask Face
Presentation Attack Detection [103.7264459186552]
顔認識システムには、顔提示攻撃検出(PAD)が不可欠である。
ほとんどの既存の3DマスクPADベンチマークにはいくつかの欠点があります。
現実世界のアプリケーションとのギャップを埋めるために、大規模なハイファイアリティマスクデータセットを紹介します。
論文 参考訳(メタデータ) (2021-04-13T12:48:38Z) - (De)Randomized Smoothing for Certifiable Defense against Patch Attacks [136.79415677706612]
我々は、所定の画像とパッチ攻撃サイズを保証する、パッチ攻撃に対する認証可能な防御を導入する。
本手法はランダム化スムースなロバスト性スキームの幅広いクラスに関係している。
その結果,CIFAR-10およびImageNetに対するパッチ攻撃に対する認証済みの防御技術が確立した。
論文 参考訳(メタデータ) (2020-02-25T08:39:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。