論文の概要: PatchCURE: Improving Certifiable Robustness, Model Utility, and
Computation Efficiency of Adversarial Patch Defenses
- arxiv url: http://arxiv.org/abs/2310.13076v1
- Date: Thu, 19 Oct 2023 18:14:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-24 01:46:51.106265
- Title: PatchCURE: Improving Certifiable Robustness, Model Utility, and
Computation Efficiency of Adversarial Patch Defenses
- Title(参考訳): patchcure: 証明可能なロバスト性、モデルユーティリティ、および対向パッチ防御の計算効率の向上
- Authors: Chong Xiang, Tong Wu, Sihui Dai, Jonathan Petit, Suman Jana, Prateek
Mittal
- Abstract要約: 敵パッチ攻撃に対する最先端の防御は、モデルユーティリティの限界低下によって、強力な証明可能な堅牢性を達成することができる。
この印象的なパフォーマンスは、通常、未定義のモデルに比べて10~100倍の推論時間計算コストがかかる。
本稿では,このトレードオフ問題に対処するためのPatchCUREという防衛フレームワークを提案する。
- 参考スコア(独自算出の注目度): 48.84668102627439
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: State-of-the-art defenses against adversarial patch attacks can now achieve
strong certifiable robustness with a marginal drop in model utility. However,
this impressive performance typically comes at the cost of 10-100x more
inference-time computation compared to undefended models -- the research
community has witnessed an intense three-way trade-off between certifiable
robustness, model utility, and computation efficiency. In this paper, we
propose a defense framework named PatchCURE to approach this trade-off problem.
PatchCURE provides sufficient "knobs" for tuning defense performance and allows
us to build a family of defenses: the most robust PatchCURE instance can match
the performance of any existing state-of-the-art defense (without efficiency
considerations); the most efficient PatchCURE instance has similar inference
efficiency as undefended models. Notably, PatchCURE achieves state-of-the-art
robustness and utility performance across all different efficiency levels,
e.g., 16-23% absolute clean accuracy and certified robust accuracy advantages
over prior defenses when requiring computation efficiency to be close to
undefended models. The family of PatchCURE defenses enables us to flexibly
choose appropriate defenses to satisfy given computation and/or utility
constraints in practice.
- Abstract(参考訳): 敵のパッチ攻撃に対する最先端の防御は、モデルユーティリティの限界低下とともに、強力な証明可能な堅牢性を達成することができる。
しかし、この印象的なパフォーマンスは通常、未定義のモデルに比べて10倍から100倍の推論時間計算コストで達成される。
本稿では,このトレードオフ問題に対処するためのPatchCUREという防衛フレームワークを提案する。
もっとも堅牢なpatchcureインスタンスは、既存の最先端の防御(効率を考慮せずに)のパフォーマンスにマッチすることができ、最も効率的なpatchcureインスタンスは、未定義のモデルと同じような推論効率を持っています。
特に、PatchCUREは、あらゆる異なる効率レベル、例えば16-23%の絶対的クリーンな正確さと、未解決モデルに近い計算効率を必要とする場合の事前の防御よりも堅牢な精度の利点を達成している。
patcure defensesのファミリーは、計算および/または実用上の制約を実際に満たす適切な防御を柔軟に選択できる。
関連論文リスト
- DefensiveDR: Defending against Adversarial Patches using Dimensionality Reduction [4.4100683691177816]
アドリラルパッチベースの攻撃は、マシンラーニングモデルの使用に対する大きな抑止力であることが示されている。
我々は、このようなパッチベースの攻撃を阻止するために次元削減技術を用いた実用的メカニズムであるtextitDefensiveDRを提案する。
論文 参考訳(メタデータ) (2023-11-20T22:01:31Z) - Learn from the Past: A Proxy Guided Adversarial Defense Framework with
Self Distillation Regularization [53.04697800214848]
敵対的訓練(AT)は、ディープラーニングモデルの堅牢性を固める上で重要な要素である。
AT方式は、目標モデルの防御のために直接反復的な更新を頼りにしており、不安定な訓練や破滅的なオーバーフィッティングといった障害に頻繁に遭遇する。
汎用プロキシガイド型防衛フレームワークLAST(bf Pbf astから学ぶ)を提案する。
論文 参考訳(メタデータ) (2023-10-19T13:13:41Z) - PatchCensor: Patch Robustness Certification for Transformers via
Exhaustive Testing [7.88628640954152]
Vision Transformer (ViT)は、他の古典的ニューラルネットワークと同様に非常に非線形であることが知られており、自然なパッチの摂動と逆パッチの摂動の両方によって容易に騙される。
この制限は、特に安全クリティカルなシナリオにおいて、実際の産業環境におけるViTの展開に脅威をもたらす可能性がある。
PatchCensorを提案する。このPatchCensorは、徹底的なテストを適用することで、ViTのパッチ堅牢性を証明することを目的としている。
論文 参考訳(メタデータ) (2021-11-19T23:45:23Z) - ROPUST: Improving Robustness through Fine-tuning with Photonic
Processors and Synthetic Gradients [65.52888259961803]
ROPUSTは、頑健な事前学習モデルを活用し、その堅牢性を高めるためのシンプルで効率的な手法である。
我々は,ロバストベンチの4つの攻撃に対して,9つの異なるモデルを用いて実験を行った。
ROPUSTは,最先端の位相探索技術でも有効であることを示す。
論文 参考訳(メタデータ) (2021-07-06T12:03:36Z) - Efficient Certified Defenses Against Patch Attacks on Image Classifiers [13.858624044986815]
BagCertは、効率的な認証を可能にする、新しいモデルアーキテクチャと認定手順の組み合わせである。
CIFAR10では、BagCertは1つのGPU上で43秒でサンプルを認証し、5x5パッチに対して86%のクリーンと60%の認証精度を得る。
論文 参考訳(メタデータ) (2021-02-08T12:11:41Z) - PatchGuard: A Provably Robust Defense against Adversarial Patches via
Small Receptive Fields and Masking [46.03749650789915]
画像の制限領域内の画素を任意に修正することで、機械学習モデルの誤分類を誘発することを目的としている。
そこで我々はPatchGuardという汎用防衛フレームワークを提案する。このフレームワークは、局所的な敵パッチに対して高い清潔さを維持しつつ、高い堅牢性を達成できる。
論文 参考訳(メタデータ) (2020-05-17T03:38:34Z) - (De)Randomized Smoothing for Certifiable Defense against Patch Attacks [136.79415677706612]
我々は、所定の画像とパッチ攻撃サイズを保証する、パッチ攻撃に対する認証可能な防御を導入する。
本手法はランダム化スムースなロバスト性スキームの幅広いクラスに関係している。
その結果,CIFAR-10およびImageNetに対するパッチ攻撃に対する認証済みの防御技術が確立した。
論文 参考訳(メタデータ) (2020-02-25T08:39:46Z) - Boosting Adversarial Training with Hypersphere Embedding [53.75693100495097]
敵対的訓練は、ディープラーニングモデルに対する敵対的攻撃に対する最も効果的な防御の1つである。
本研究では,超球埋め込み機構をATプロシージャに組み込むことを提唱する。
我々は,CIFAR-10 と ImageNet データセットに対する幅広い敵対攻撃の下で本手法を検証した。
論文 参考訳(メタデータ) (2020-02-20T08:42:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。