論文の概要: Benchmarking Adversarial Patch Selection and Location
- arxiv url: http://arxiv.org/abs/2508.01676v1
- Date: Sun, 03 Aug 2025 09:07:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-05 20:32:48.713491
- Title: Benchmarking Adversarial Patch Selection and Location
- Title(参考訳): 逆パッチ選択と位置のベンチマーク
- Authors: Shai Kimhi, Avi Mendlson, Moshe Kimhi,
- Abstract要約: パッチ配置の空間的に徹底した最初のベンチマークであるPatchMapを提示する。
PatchMapは、小さなパッチが確実な分類ミスを引き起こし、モデルの信頼性が大幅に低下するホットスポットを明らかにしている。
本手法は,ランダム配置や固定配置に比べて攻撃成功率を8~13ポイント向上させる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Adversarial patch attacks threaten the reliability of modern vision models. We present PatchMap, the first spatially exhaustive benchmark of patch placement, built by evaluating over 1.5e8 forward passes on ImageNet validation images. PatchMap reveals systematic hot-spots where small patches (as little as 2% of the image) induce confident misclassifications and large drops in model confidence. To demonstrate its utility, we propose a simple segmentation guided placement heuristic that leverages off the shelf masks to identify vulnerable regions without any gradient queries. Across five architectures-including adversarially trained ResNet50, our method boosts attack success rates by 8 to 13 percentage points compared to random or fixed placements. We publicly release PatchMap and the code implementation. The full PatchMap bench (6.5B predictions, multiple backbones) will be released soon to further accelerate research on location-aware defenses and adaptive attacks.
- Abstract(参考訳): 敵パッチ攻撃は現代のビジョンモデルの信頼性を脅かす。
ImageNet検証画像上で1.5e8以上の前方パスを評価することで、パッチ配置の空間的に徹底した最初のベンチマークであるPatchMapを提示する。
PatchMapは、小さなパッチ(画像の2%程度)が確実な分類ミスを引き起こし、モデルの信頼性が大幅に低下する、系統的なホットスポットを明らかにしている。
本手法の有効性を示すために,本研究では,棚のマスクを外し,勾配クエリを使わずに脆弱な領域を識別する単純なセグメンテーション誘導配置ヒューリスティックを提案する。
ResNet50を含む5つのアーキテクチャにまたがって,攻撃成功率をランダム配置や固定配置と比較して8~13ポイント向上させる。
PatchMapとコード実装を公開しています。
PatchMapの完全なベンチ(6.5Bの予測、複数のバックボーン)は間もなくリリースされ、位置認識の防御と適応攻撃に関するさらなる研究が加速される。
関連論文リスト
- BadPatch: Diffusion-Based Generation of Physical Adversarial Patches [75.35862017536253]
BadPatchは、自然主義的な逆パッチを生成するための新しい拡散ベースのフレームワークである。
本稿では,最初の物理対向TシャツデータセットであるAdvT-shirt-1Kを構築した。
論文 参考訳(メタデータ) (2024-12-02T12:30:35Z) - Certified Defences Against Adversarial Patch Attacks on Semantic
Segmentation [44.13336566131961]
Demasked Smoothingは、パッチ攻撃に対するセマンティックセグメンテーションモデルの堅牢性を証明するための最初のアプローチである。
Demasked Smoothingは、さまざまなマスキング戦略を使用して、認証検出と認定回復の両方に適用することができる。
大規模な実験では、Demasked Smoothingが検出タスクにおける1%パッチの画素予測の64%、ADE20Kデータセットのリカバリタスクの0.5%パッチに対して48%を平均で認証できることが示されている。
論文 参考訳(メタデータ) (2022-09-13T13:24:22Z) - Task-agnostic Defense against Adversarial Patch Attacks [25.15948648034204]
対向パッチは、指定された局所領域内に対向画素を注入することにより、誤誘導ニューラルネットワークを攻撃する。
我々は、ホワイトボックスの敵パッチに対するタスク非依存の防御であるPatchZeroを提示する。
本手法は, 良性性能の劣化を伴わずに, SOTAの頑健な精度を実現する。
論文 参考訳(メタデータ) (2022-07-05T03:49:08Z) - Segment and Complete: Defending Object Detectors against Adversarial
Patch Attacks with Robust Patch Detection [142.24869736769432]
敵のパッチ攻撃は最先端の物体検出器に深刻な脅威をもたらす。
パッチ攻撃に対して物体検出器を防御するフレームワークであるSegment and Complete Defense (SAC)を提案する。
SACは、物理的パッチ攻撃の標的攻撃成功率を著しく低減できることを示す。
論文 参考訳(メタデータ) (2021-12-08T19:18:48Z) - CAMERAS: Enhanced Resolution And Sanity preserving Class Activation
Mapping for image saliency [61.40511574314069]
バックプロパゲーション画像のサリエンシは、入力中の個々のピクセルのモデル中心の重要性を推定することにより、モデル予測を説明することを目的としている。
CAMERASは、外部の事前処理を必要とせずに、高忠実度バックプロパゲーション・サリエンシ・マップを計算できる手法である。
論文 参考訳(メタデータ) (2021-06-20T08:20:56Z) - IPatch: A Remote Adversarial Patch [4.886053349194068]
本稿では,画像のセマンティクスに対するモデルの認識を変化させる新たなタイプの逆パッチを提案する。
これらのパッチはイメージ内のどこにでも配置でき、パッチから遠く離れた場所の分類や意味を変えることができる。
我々は、パッチが平均で最大93%の成功率で遠隔ターゲット地域の分類を変えることができることを示しています。
論文 参考訳(メタデータ) (2021-04-30T22:34:32Z) - PatchGuard++: Efficient Provable Attack Detection against Adversarial
Patches [28.94435153159868]
逆パッチは、制限領域内の画像画素を任意に操作して、モデル誤分類を誘導することができる。
最近の堅牢な防御は、通常、小さな受容フィールドを持つCNNを使用することで、パッチガードフレームワークに従います。
PatchGuardをPatchGuard++に拡張し、敵のパッチ攻撃を確実に検出し、証明可能な堅牢な精度とクリーンな精度を向上します。
論文 参考訳(メタデータ) (2021-04-26T14:22:33Z) - PatchGuard: A Provably Robust Defense against Adversarial Patches via
Small Receptive Fields and Masking [46.03749650789915]
画像の制限領域内の画素を任意に修正することで、機械学習モデルの誤分類を誘発することを目的としている。
そこで我々はPatchGuardという汎用防衛フレームワークを提案する。このフレームワークは、局所的な敵パッチに対して高い清潔さを維持しつつ、高い堅牢性を達成できる。
論文 参考訳(メタデータ) (2020-05-17T03:38:34Z) - PatchAttack: A Black-box Texture-based Attack with Reinforcement
Learning [31.255179167694887]
パッチベースの攻撃は、誤分類を引き起こす入力に認識できるが局所的な変更をもたらす。
提案したPatchAttackは、クエリ効率が高く、ターゲットと非ターゲットの両方の攻撃のモデルを壊すことができる。
論文 参考訳(メタデータ) (2020-04-12T19:31:09Z) - Certified Defenses for Adversarial Patches [72.65524549598126]
敵パッチ攻撃は、現実世界のコンピュータビジョンシステムに対する最も実用的な脅威モデルの一つである。
本稿では,パッチアタックに対する認証と実証的防御について検討する。
論文 参考訳(メタデータ) (2020-03-14T19:57:31Z) - (De)Randomized Smoothing for Certifiable Defense against Patch Attacks [136.79415677706612]
我々は、所定の画像とパッチ攻撃サイズを保証する、パッチ攻撃に対する認証可能な防御を導入する。
本手法はランダム化スムースなロバスト性スキームの幅広いクラスに関係している。
その結果,CIFAR-10およびImageNetに対するパッチ攻撃に対する認証済みの防御技術が確立した。
論文 参考訳(メタデータ) (2020-02-25T08:39:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。