論文の概要: Toward Patch Robustness Certification and Detection for Deep Learning Systems Beyond Consistent Samples
- arxiv url: http://arxiv.org/abs/2512.06123v1
- Date: Fri, 05 Dec 2025 20:02:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:54.200045
- Title: Toward Patch Robustness Certification and Detection for Deep Learning Systems Beyond Consistent Samples
- Title(参考訳): 一貫性サンプルを超える深層学習システムのパッチロバスト性証明と検出に向けて
- Authors: Qilin Zhou, Zhengyuan Wei, Haipeng Wang, Zhuo Wang, W. K. Chan,
- Abstract要約: 本稿では,新しいマスキングによる認証検出手法であるHiCertを提案する。
無矛盾で一貫したサンプルを含む、はるかに良質なサンプルを認定する。
警告を伴わず、偽のサイレント比を著しく下げることなく、これらの試料の精度を著しく向上させる。
- 参考スコア(独自算出の注目度): 3.914395669991103
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Patch robustness certification is an emerging kind of provable defense technique against adversarial patch attacks for deep learning systems. Certified detection ensures the detection of all patched harmful versions of certified samples, which mitigates the failures of empirical defense techniques that could (easily) be compromised. However, existing certified detection methods are ineffective in certifying samples that are misclassified or whose mutants are inconsistently pre icted to different labels. This paper proposes HiCert, a novel masking-based certified detection technique. By focusing on the problem of mutants predicted with a label different from the true label with our formal analysis, HiCert formulates a novel formal relation between harmful samples generated by identified loopholes and their benign counterparts. By checking the bound of the maximum confidence among these potentially harmful (i.e., inconsistent) mutants of each benign sample, HiCert ensures that each harmful sample either has the minimum confidence among mutants that are predicted the same as the harmful sample itself below this bound, or has at least one mutant predicted with a label different from the harmful sample itself, formulated after two novel insights. As such, HiCert systematically certifies those inconsistent samples and consistent samples to a large extent. To our knowledge, HiCert is the first work capable of providing such a comprehensive patch robustness certification for certified detection. Our experiments show the high effectiveness of HiCert with a new state-of the-art performance: It certifies significantly more benign samples, including those inconsistent and consistent, and achieves significantly higher accuracy on those samples without warnings and a significantly lower false silent ratio.
- Abstract(参考訳): パッチロバスト性認証は、ディープラーニングシステムに対する敵パッチ攻撃に対する証明可能な防御手法として新たに登場したものだ。
認証された検出は、(容易に)侵害される可能性のある経験的防御技術の失敗を緩和する、すべてのパッチされた有害な検体を確実に検出する。
しかし、既存の認証された検出方法は、誤って分類されたり、変異体が異なるラベルに不整合に先入されている検体を認証するのに効果がない。
本稿では,新しいマスキングによる認証検出手法であるHiCertを提案する。
HiCertは、正則解析と真ラベルとは異なるラベルで予測された変異体の問題に焦点を当て、同定された抜け穴によって生成された有害なサンプルと良質なサンプルとの間に、新たな公式な関係を定式化します。
それぞれの良性サンプルの潜在的な有害(すなわち不整合)変異体間の最大信頼度を検査することにより、各有害サンプルが、この境界下にある有害サンプル自身と同じと予測される変異体の中で最小信頼度を持つか、または2つの新しい洞察の後に定式化された有害サンプル自身とは異なるラベルで予測される少なくとも1つの変異体を有することを保証している。
このように、HiCertは、これらの一貫性のないサンプルと一貫性のあるサンプルを、広範囲に体系的に認証する。
私たちの知る限り、HiCertは、認証検出のためにこのような包括的なパッチ堅牢性証明を提供することができる最初の作品です。
実験の結果,非一貫性,整合性を含む良質な試料を高い精度で認証し,警告のない試料に対して極めて高い精度で検出し,疑似サイレント比を著しく低くすることがわかった。
関連論文リスト
- CertDW: Towards Certified Dataset Ownership Verification via Conformal Prediction [48.82467166657901]
本稿では,最初の認証データセット透かし(CertDW)とCertDWベースの認証データセットオーナシップ検証手法を提案する。
共形予測に触発されて,主確率 (PP) と透かし頑健性 (WR) の2つの統計指標を導入する。
我々は、不審モデルのWR値が、透かしのないデータセットでトレーニングされた良性モデルのPP値を大幅に上回る場合に、PPとWRの間に証明可能な低い境界が存在することを証明した。
論文 参考訳(メタデータ) (2025-06-16T07:17:23Z) - CrossCert: A Cross-Checking Detection Approach to Patch Robustness Certification for Deep Learning Models [6.129515045488372]
パッチ堅牢性認証は、証明可能な保証付き敵パッチ攻撃に対する、新たな防御技術である。
本稿ではCrossCertと呼ばれる新しい防御技術を提案する。
論文 参考訳(メタデータ) (2024-05-13T11:54:03Z) - It's Simplex! Disaggregating Measures to Improve Certified Robustness [32.63920797751968]
本研究は,認証機構の分析を改善するための2つのアプローチを提案する。
新しい認証アプローチは、達成可能な認定範囲の2倍以上の可能性を秘めている。
経験的評価は、我々の新しいアプローチがノイズスケール$sigma = 1$で9%以上のサンプルを認証できることを検証する。
論文 参考訳(メタデータ) (2023-09-20T02:16:19Z) - A Majority Invariant Approach to Patch Robustness Certification for Deep
Learning Models [2.6499018693213316]
MajorCertは、同じサンプル上の同じパッチ領域で操作可能なすべての可能なラベルセットを見つける。
それらの組み合わせを要素的に列挙し、これらの組み合わせの大多数の不変量がサンプルを認証するために無傷かどうかをチェックする。
論文 参考訳(メタデータ) (2023-08-01T11:05:13Z) - Towards Evading the Limits of Randomized Smoothing: A Theoretical
Analysis [74.85187027051879]
決定境界を複数の雑音分布で探索することにより,任意の精度で最適な証明を近似できることを示す。
この結果は、分類器固有の認証に関するさらなる研究を後押しし、ランダム化された平滑化が依然として調査に値することを示す。
論文 参考訳(メタデータ) (2022-06-03T17:48:54Z) - Mitigating the Mutual Error Amplification for Semi-Supervised Object
Detection [92.52505195585925]
擬似ラベルの修正機構を導入し,相互誤りの増幅を緩和するクロス・インストラクション(CT)手法を提案する。
他の検出器からの予測を直接擬似ラベルとして扱う既存の相互指導法とは対照的に,我々はラベル修正モジュール(LRM)を提案する。
論文 参考訳(メタデータ) (2022-01-26T03:34:57Z) - PatchCensor: Patch Robustness Certification for Transformers via
Exhaustive Testing [7.88628640954152]
Vision Transformer (ViT)は、他の古典的ニューラルネットワークと同様に非常に非線形であることが知られており、自然なパッチの摂動と逆パッチの摂動の両方によって容易に騙される。
この制限は、特に安全クリティカルなシナリオにおいて、実際の産業環境におけるViTの展開に脅威をもたらす可能性がある。
PatchCensorを提案する。このPatchCensorは、徹底的なテストを適用することで、ViTのパッチ堅牢性を証明することを目的としている。
論文 参考訳(メタデータ) (2021-11-19T23:45:23Z) - ANCER: Anisotropic Certification via Sample-wise Volume Maximization [134.7866967491167]
本稿では,与えられたテストセットのサンプルに対して,ボリュームを介して異方性証明書を取得するためのフレームワークであるanceRを紹介する。
その結果,CERはCIFAR-10とImageNetの両方で複数の半径で精度を導入し,ボリュームの面ではかなり大きな領域を認証していることがわかった。
論文 参考訳(メタデータ) (2021-07-09T17:42:38Z) - Exploiting Sample Uncertainty for Domain Adaptive Person
Re-Identification [137.9939571408506]
各サンプルに割り当てられた擬似ラベルの信頼性を推定・活用し,ノイズラベルの影響を緩和する。
不確実性に基づく最適化は大幅な改善をもたらし、ベンチマークデータセットにおける最先端のパフォーマンスを達成します。
論文 参考訳(メタデータ) (2020-12-16T04:09:04Z) - Certified Robustness to Label-Flipping Attacks via Randomized Smoothing [105.91827623768724]
機械学習アルゴリズムは、データ中毒攻撃の影響を受けやすい。
任意の関数に対するランダム化スムージングの統一的なビューを示す。
本稿では,一般的なデータ中毒攻撃に対して,ポイントワイズで確実に堅牢な分類器を構築するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2020-02-07T21:28:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。