論文の概要: Scalable and Precise Patch Robustness Certification for Deep Learning Models with Top-k Predictions
- arxiv url: http://arxiv.org/abs/2507.23335v1
- Date: Thu, 31 Jul 2025 08:31:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-01 17:19:09.320033
- Title: Scalable and Precise Patch Robustness Certification for Deep Learning Models with Top-k Predictions
- Title(参考訳): トップk予測付きディープラーニングモデルのためのスケーラブルで高精度なパッチロバスト性証明
- Authors: Qilin Zhou, Haipeng Wang, Zhengyuan Wei, W. K. Chan,
- Abstract要約: パッチ堅牢性認証は、敵のパッチ攻撃を防御するための新たな検証アプローチである。
投票ベースで認証されたリカバリディフェンダーであるCostCertを提案する。
CostCertは、現在最先端のディフェンダーであるPatchGuardよりも大幅に優れています。
- 参考スコア(独自算出の注目度): 2.6499018693213316
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Patch robustness certification is an emerging verification approach for defending against adversarial patch attacks with provable guarantees for deep learning systems. Certified recovery techniques guarantee the prediction of the sole true label of a certified sample. However, existing techniques, if applicable to top-k predictions, commonly conduct pairwise comparisons on those votes between labels, failing to certify the sole true label within the top k prediction labels precisely due to the inflation on the number of votes controlled by the attacker (i.e., attack budget); yet enumerating all combinations of vote allocation suffers from the combinatorial explosion problem. We propose CostCert, a novel, scalable, and precise voting-based certified recovery defender. CostCert verifies the true label of a sample within the top k predictions without pairwise comparisons and combinatorial explosion through a novel design: whether the attack budget on the sample is infeasible to cover the smallest total additional votes on top of the votes uncontrollable by the attacker to exclude the true labels from the top k prediction labels. Experiments show that CostCert significantly outperforms the current state-of-the-art defender PatchGuard, such as retaining up to 57.3% in certified accuracy when the patch size is 96, whereas PatchGuard has already dropped to zero.
- Abstract(参考訳): パッチ堅牢性認証は、ディープラーニングシステムに対する証明可能な保証で、敵のパッチ攻撃を防御するための、新たな検証アプローチである。
認証回復技術は、認定サンプルの唯一の真のラベルの予測を保証する。
しかし、既存の技術では、トップkの予測に当てはまる場合、一般的にラベル間の投票をペアで比較するが、攻撃者による投票数(すなわち攻撃予算)のインフレーションによって、トップkの予測ラベル内で唯一の真のラベルを認定することができない。
提案するCostCertは,新規で,スケーラブルで,正確な投票ベースで認証されたリカバリディフェンダである。
CostCertは、新しい設計を通じて、ペア比較や組合せ爆発なしにトップk予測内のサンプルの真のラベルを検証する: サンプルの攻撃予算が、トップk予測ラベルから真のラベルを除外するために攻撃者が制御できない投票の上の最小の総投票をカバーできないか。
実験の結果、CostCertは現在の最先端のディフェンダーであるPatchGuardよりはるかに優れており、パッチサイズが96の場合には57.3%の認証精度を維持しているのに対して、PatchGuardはすでに0に低下している。
関連論文リスト
- Robust Conformal Prediction with a Single Binary Certificate [58.450154976190795]
コンフォーマル予測(CP)は、任意のモデルの出力を、真のラベルを(調整可能な)高い確率でカバーすることを保証した予測セットに変換する。
我々は,MCサンプルが著しく低い場合でも,より小さな集合を生成する頑健な共形予測を提案する。
論文 参考訳(メタデータ) (2025-03-07T08:41:53Z) - Robust Yet Efficient Conformal Prediction Sets [53.78604391939934]
コンフォーマル予測(CP)は、任意のモデルの出力を真のラベルを含むことが保証された予測セットに変換することができる。
整合性スコアの最悪のケース変化をバウンドすることで、証明可能なロバストな集合を導出する。
論文 参考訳(メタデータ) (2024-07-12T10:59:44Z) - Verifiably Robust Conformal Prediction [1.391198481393699]
本稿では、ニューラルネットワーク検証手法を利用して、敵攻撃時のカバレッジ保証を回復する新しいフレームワークであるVRCP(Verifiably Robust Conformal Prediction)を紹介する。
私たちのメソッドは、回帰タスクだけでなく、$ell1$, $ell2$, $ellinfty$といった任意のノルムで束縛された摂動をサポートする最初の方法です。
いずれの場合も、VRCPは名目上の範囲を達成し、SotAよりもはるかに効率的で情報的な予測領域が得られる。
論文 参考訳(メタデータ) (2024-05-29T09:50:43Z) - A Majority Invariant Approach to Patch Robustness Certification for Deep
Learning Models [2.6499018693213316]
MajorCertは、同じサンプル上の同じパッチ領域で操作可能なすべての可能なラベルセットを見つける。
それらの組み合わせを要素的に列挙し、これらの組み合わせの大多数の不変量がサンプルを認証するために無傷かどうかをチェックする。
論文 参考訳(メタデータ) (2023-08-01T11:05:13Z) - PatchCensor: Patch Robustness Certification for Transformers via
Exhaustive Testing [7.88628640954152]
Vision Transformer (ViT)は、他の古典的ニューラルネットワークと同様に非常に非線形であることが知られており、自然なパッチの摂動と逆パッチの摂動の両方によって容易に騙される。
この制限は、特に安全クリティカルなシナリオにおいて、実際の産業環境におけるViTの展開に脅威をもたらす可能性がある。
PatchCensorを提案する。このPatchCensorは、徹底的なテストを適用することで、ViTのパッチ堅牢性を証明することを目的としている。
論文 参考訳(メタデータ) (2021-11-19T23:45:23Z) - Almost Tight L0-norm Certified Robustness of Top-k Predictions against
Adversarial Perturbations [78.23408201652984]
トップk予測は、マシンラーニング・アズ・ア・サービス、レコメンダ・システム、Web検索など、多くの現実世界のアプリケーションで使用されている。
我々の研究はランダム化平滑化に基づいており、入力をランダム化することで、証明可能なロバストな分類器を構築する。
例えば、攻撃者がテスト画像の5ピクセルを任意に摂動できる場合に、ImageNet上で69.2%の認定トップ3精度を達成する分類器を構築することができる。
論文 参考訳(メタデータ) (2020-11-15T21:34:44Z) - Deep Partition Aggregation: Provable Defense against General Poisoning
Attacks [136.79415677706612]
アドリアリン中毒は、分類器の試験時間挙動を損なうために訓練データを歪ませる。
毒殺攻撃に対する2つの新たな防御策を提案する。
DPAは一般的な中毒脅威モデルに対する認証された防御である。
SS-DPAはラベルフリップ攻撃に対する認証された防御である。
論文 参考訳(メタデータ) (2020-06-26T03:16:31Z) - (De)Randomized Smoothing for Certifiable Defense against Patch Attacks [136.79415677706612]
我々は、所定の画像とパッチ攻撃サイズを保証する、パッチ攻撃に対する認証可能な防御を導入する。
本手法はランダム化スムースなロバスト性スキームの幅広いクラスに関係している。
その結果,CIFAR-10およびImageNetに対するパッチ攻撃に対する認証済みの防御技術が確立した。
論文 参考訳(メタデータ) (2020-02-25T08:39:46Z) - Certified Robustness to Label-Flipping Attacks via Randomized Smoothing [105.91827623768724]
機械学習アルゴリズムは、データ中毒攻撃の影響を受けやすい。
任意の関数に対するランダム化スムージングの統一的なビューを示す。
本稿では,一般的なデータ中毒攻撃に対して,ポイントワイズで確実に堅牢な分類器を構築するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2020-02-07T21:28:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。