論文の概要: Revisiting Image Classifier Training for Improved Certified Robust
Defense against Adversarial Patches
- arxiv url: http://arxiv.org/abs/2306.12610v1
- Date: Thu, 22 Jun 2023 00:13:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-23 15:55:09.756522
- Title: Revisiting Image Classifier Training for Improved Certified Robust
Defense against Adversarial Patches
- Title(参考訳): 対人パッチに対する認証ロバスト対策のための画像分類教育の見直し
- Authors: Aniruddha Saha, Shuhua Yu, Arash Norouzzadeh, Wan-Yi Lin, Chaithanya
Kumar Mummadi
- Abstract要約: 本稿では,2ラウンドのグリーディマスキング戦略 (Greedy Cutout) を提案する。
私たちは、Greedy Cutoutでトレーニングされたモデルが、PatchCleanserのRandom Cutoutよりも、さまざまなデータセットの信頼性を向上できることを示します。
- 参考スコア(独自算出の注目度): 7.90470727433401
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Certifiably robust defenses against adversarial patches for image classifiers
ensure correct prediction against any changes to a constrained neighborhood of
pixels. PatchCleanser arXiv:2108.09135 [cs.CV], the state-of-the-art certified
defense, uses a double-masking strategy for robust classification. The success
of this strategy relies heavily on the model's invariance to image pixel
masking. In this paper, we take a closer look at model training schemes to
improve this invariance. Instead of using Random Cutout arXiv:1708.04552v2
[cs.CV] augmentations like PatchCleanser, we introduce the notion of worst-case
masking, i.e., selecting masked images which maximize classification loss.
However, finding worst-case masks requires an exhaustive search, which might be
prohibitively expensive to do on-the-fly during training. To solve this
problem, we propose a two-round greedy masking strategy (Greedy Cutout) which
finds an approximate worst-case mask location with much less compute. We show
that the models trained with our Greedy Cutout improves certified robust
accuracy over Random Cutout in PatchCleanser across a range of datasets and
architectures. Certified robust accuracy on ImageNet with a ViT-B16-224 model
increases from 58.1\% to 62.3\% against a 3\% square patch applied anywhere on
the image.
- Abstract(参考訳): 画像分類器の敵対的パッチに対する証明可能な堅牢な防御は、制約されたピクセル近傍の変更に対する正しい予測を保証する。
PatchCleanser arXiv:2108.09135[cs.CV]は、最先端の認定防衛であり、堅牢な分類のために二重マスキング戦略を使用している。
この戦略の成功は、画像ピクセルマスキングに対するモデルの不変性に大きく依存している。
本稿では,この不変性を改善するためのモデル学習方式について考察する。
PatchCleanserのようなRandom Cutout arXiv:1708.04552v2[cs.CV]拡張の代わりに、最悪のケースマスキングの概念を導入する。
しかし、最悪のケースのマスクを見つけるには徹底的な捜索が必要であり、訓練中にオンザフライを行うのに非常に費用がかかる可能性がある。
そこで本研究では,2ラウンドのグリーディマスク戦略(グリーディカットアウト)を提案する。
私たちは、Greedy Cutoutでトレーニングされたモデルが、PatchCleanserのRandom Cutoutよりも、さまざまなデータセットやアーキテクチャの信頼性を向上していることを示す。
ViT-B16-224モデルでImageNet上で認証された堅牢な精度は58.1\%から62.3\%に上昇し、画像上の任意の場所に3\%の正方形パッチが適用される。
関連論文リスト
- Learning Mask-aware CLIP Representations for Zero-Shot Segmentation [120.97144647340588]
Mask-awareProposals CLIP (IP-CLIP) は任意の数の画像とマスクの提案を同時に処理するために提案されている。
マスク認識損失と自己蒸留損失はIP-CLIPを微調整するように設計されており、CLIPが異なるマスク提案に応答することを保証している。
我々は、人気のあるゼロショットベンチマークで広範な実験を行う。
論文 参考訳(メタデータ) (2023-09-30T03:27:31Z) - Improving Masked Autoencoders by Learning Where to Mask [65.89510231743692]
マスケ画像モデリングは視覚データに対する有望な自己教師型学習手法である。
本稿では,Gumbel-Softmax を用いて,対向学習マスク生成装置とマスク誘導画像モデリングプロセスとを相互接続するフレームワーク AutoMAE を提案する。
実験の結果,AutoMAEは,標準の自己監督型ベンチマークや下流タスクに対して,効果的な事前学習モデルを提供することがわかった。
論文 参考訳(メタデータ) (2023-03-12T05:28:55Z) - Centroid-centered Modeling for Efficient Vision Transformer Pre-training [109.18486172045701]
Masked Image Modeling (MIM)は、視覚変換器(ViT)を用いた新しい自己教師型ビジョン事前学習パラダイムである。
提案手法である textbfCCViT は k-means クラスタリングを利用して画像モデリングのためのセントロイドを得る。
実験の結果、300エポックしか持たないViT-BモデルはImageNet-1K分類で84.3%、ADE20Kセマンティックセグメンテーションで51.6%の精度を達成した。
論文 参考訳(メタデータ) (2023-03-08T15:34:57Z) - Certified Defences Against Adversarial Patch Attacks on Semantic
Segmentation [44.13336566131961]
Demasked Smoothingは、パッチ攻撃に対するセマンティックセグメンテーションモデルの堅牢性を証明するための最初のアプローチである。
Demasked Smoothingは、さまざまなマスキング戦略を使用して、認証検出と認定回復の両方に適用することができる。
大規模な実験では、Demasked Smoothingが検出タスクにおける1%パッチの画素予測の64%、ADE20Kデータセットのリカバリタスクの0.5%パッチに対して48%を平均で認証できることが示されている。
論文 参考訳(メタデータ) (2022-09-13T13:24:22Z) - BEiT v2: Masked Image Modeling with Vector-Quantized Visual Tokenizers [117.79456335844439]
マスク付き予測のための再構成ターゲットとして,セマンティックリッチなビジュアルトークン化器を提案する。
次に、マスクされた画像パッチに対する元の視覚トークンを予測して、視覚変換器を事前訓練する。
画像分類とセマンティックセグメンテーションの実験は、我々のアプローチがMIM法よりも優れていることを示している。
論文 参考訳(メタデータ) (2022-08-12T16:48:10Z) - Masked Autoencoders Are Scalable Vision Learners [60.97703494764904]
Masked Autoencoders (MAE) は、コンピュータビジョンのためのスケーラブルな自己教師型学習システムである。
我々は入力画像のランダムなパッチを隠蔽し、欠落したピクセルを再構成する。
これら2つの設計を結合することで,大規模モデルを効率的かつ効率的にトレーニングすることが可能になります。
論文 参考訳(メタデータ) (2021-11-11T18:46:40Z) - Towards robustness under occlusion for face recognition [0.0]
本稿では,ResNetのバックボーンを用いた顔認識パイプラインの性能に及ぼすオクルージョンの影響を評価する。
入力画像に適用した8種類のオクルージョンマスクを設計した。
閉塞下でのロバスト性を高めるために,我々は2つのアプローチを踏襲した。
2つ目はCutmixで、長方形のパッチを使ってトレーニング画像とラベルを混ぜる正規化戦略である。
論文 参考訳(メタデータ) (2021-09-19T08:27:57Z) - PatchCleanser: Certifiably Robust Defense against Adversarial Patches
for Any Image Classifier [30.559585856170216]
画像分類モデルに対する逆パッチ攻撃は、局所化された制限された画像領域(すなわち、パッチ)に逆向きに作られたピクセルを注入することを目的としている。
我々はPatchCleanserを,任意の画像分類モデルと互換性のある敵パッチに対する堅牢な防御法として提案する。
我々は,ImageNet, ImageNette, CIFAR-10, CIFAR-100, SVHN, Flowers-102データセットに対する防御効果を広く評価した。
論文 参考訳(メタデータ) (2021-08-20T12:09:33Z) - Block-wise Image Transformation with Secret Key for Adversarially Robust
Defense [17.551718914117917]
提案する変換を実現するために,Pixel Shuffling, Bit Flipping, FFX Encryptionの3つのアルゴリズムを開発した。
CIFAR-10とImageNetのデータセット上で、ブラックボックスとホワイトボックスの両方を用いて実験を行った。
提案したディフェンスは,適応攻撃下においてもクリーン画像の精度を高い精度で達成する。
論文 参考訳(メタデータ) (2020-10-02T06:07:12Z) - (De)Randomized Smoothing for Certifiable Defense against Patch Attacks [136.79415677706612]
我々は、所定の画像とパッチ攻撃サイズを保証する、パッチ攻撃に対する認証可能な防御を導入する。
本手法はランダム化スムースなロバスト性スキームの幅広いクラスに関係している。
その結果,CIFAR-10およびImageNetに対するパッチ攻撃に対する認証済みの防御技術が確立した。
論文 参考訳(メタデータ) (2020-02-25T08:39:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。