論文の概要: Certified but Fooled! Breaking Certified Defences with Ghost Certificates
- arxiv url: http://arxiv.org/abs/2511.14003v1
- Date: Tue, 18 Nov 2025 00:11:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-19 16:23:52.849771
- Title: Certified but Fooled! Breaking Certified Defences with Ghost Certificates
- Title(参考訳): 認証されたが偽造された! ゴースト証明書で認証された防御を破る
- Authors: Quoc Viet Vo, Tashreque M. Haq, Paul Montague, Tamas Abraham, Ehsan Abbasnejad, Damith C. Ranasinghe,
- Abstract要約: 本研究では,保証条項の限界を理解するために,確率的認証フレームワークの悪用について検討する。
ICLRの最近の研究は、大きな摂動を作れば、誤ったクラスの証明書を生成することができる領域に入力をシフトできることを示した。
本研究では,非知覚的摂動,スプーフ証明書,およびソースクラスゴースト証明書よりも大きな証明ラジイを実現するために,地域中心の敵例を提案する。
- 参考スコア(独自算出の注目度): 24.77320354796342
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Certified defenses promise provable robustness guarantees. We study the malicious exploitation of probabilistic certification frameworks to better understand the limits of guarantee provisions. Now, the objective is to not only mislead a classifier, but also manipulate the certification process to generate a robustness guarantee for an adversarial input certificate spoofing. A recent study in ICLR demonstrated that crafting large perturbations can shift inputs far into regions capable of generating a certificate for an incorrect class. Our study investigates if perturbations needed to cause a misclassification and yet coax a certified model into issuing a deceptive, large robustness radius for a target class can still be made small and imperceptible. We explore the idea of region-focused adversarial examples to craft imperceptible perturbations, spoof certificates and achieve certification radii larger than the source class ghost certificates. Extensive evaluations with the ImageNet demonstrate the ability to effectively bypass state-of-the-art certified defenses such as Densepure. Our work underscores the need to better understand the limits of robustness certification methods.
- Abstract(参考訳): 認証された防衛は、証明可能な堅牢性を保証することを約束します。
我々は,保証条項の限界をよりよく理解するために,確率的認証フレームワークの悪用について検討する。
現在の目的は、分類器を誤解させるだけでなく、認証プロセスを操作して、逆入力証明書の偽造に対する堅牢性を保証することである。
ICLRの最近の研究は、大きな摂動を作れば、誤ったクラスの証明書を生成することができる領域に入力をシフトできることを示した。
本研究は, 誤分類の原因となる摂動や, 認定されたモデルを用いて, 対象クラスに対する大きな頑健性半径を小さくし, 認識し難いものにするために, 摂動が重要であるかどうかを考察する。
本研究では,非知覚的摂動,スプーフ証明書,およびソースクラスゴースト証明書よりも大きな証明ラジイを実現するために,地域中心の敵例を提案する。
ImageNetによる広範囲な評価は、Densepureのような最先端の認証された防御を効果的にバイパスする能力を示している。
当社の作業は、堅牢性認定手法の限界をよりよく理解する必要性を浮き彫りにしています。
関連論文リスト
- CrossCert: A Cross-Checking Detection Approach to Patch Robustness Certification for Deep Learning Models [6.129515045488372]
パッチ堅牢性認証は、証明可能な保証付き敵パッチ攻撃に対する、新たな防御技術である。
本稿ではCrossCertと呼ばれる新しい防御技術を提案する。
論文 参考訳(メタデータ) (2024-05-13T11:54:03Z) - Adaptive Hierarchical Certification for Segmentation using Randomized Smoothing [87.48628403354351]
機械学習の認証は、特定の条件下では、敵対的なサンプルが特定の範囲内でモデルを回避できないことを証明している。
セグメンテーションの一般的な認証方法は、平らな粒度のクラスを使い、モデルの不確実性による高い断続率をもたらす。
本稿では,複数レベルの階層内で画素を認証し,不安定なコンポーネントに対して粗いレベルに適応的に認証を緩和する,新しい,より実用的な設定を提案する。
論文 参考訳(メタデータ) (2024-02-13T11:59:43Z) - Et Tu Certifications: Robustness Certificates Yield Better Adversarial Examples [30.42301446202426]
我々の新しいEmphCertification Aware Attackは、計算効率のよい規範最小化対逆例を生成するために認証を利用する。
これらの攻撃は、認証境界の厳密性を評価するために使用できるが、認定のリリースは、パラドックス的にセキュリティを低下させる可能性があることも強調している。
論文 参考訳(メタデータ) (2023-02-09T00:10:05Z) - Certified Interpretability Robustness for Class Activation Mapping [77.58769591550225]
本稿では,解釈可能性マップのためのCORGI(Certifiable prOvable Robustness Guarantees)を提案する。
CORGIは入力画像を取り込み、そのCAM解釈可能性マップのロバスト性に対する証明可能な下限を与えるアルゴリズムである。
交通標識データを用いたケーススタディによるCORGIの有効性を示す。
論文 参考訳(メタデータ) (2023-01-26T18:58:11Z) - Towards Evading the Limits of Randomized Smoothing: A Theoretical
Analysis [74.85187027051879]
決定境界を複数の雑音分布で探索することにより,任意の精度で最適な証明を近似できることを示す。
この結果は、分類器固有の認証に関するさらなる研究を後押しし、ランダム化された平滑化が依然として調査に値することを示す。
論文 参考訳(メタデータ) (2022-06-03T17:48:54Z) - COPA: Certifying Robust Policies for Offline Reinforcement Learning
against Poisoning Attacks [49.15885037760725]
本研究は, 中毒発生時におけるオフライン強化学習(RL)の堅牢性を検証することに注力する。
本報告では, 許容可能な毒素トラジェクトリの数を認証する最初の認証フレームワークであるCOPAを提案する。
提案手法のいくつかは理論的に厳密であり,一部はNP-Complete問題であることを示す。
論文 参考訳(メタデータ) (2022-03-16T05:02:47Z) - Certifiers Make Neural Networks Vulnerable to Availability Attacks [70.69104148250614]
私たちは初めて、逆転戦略が敵によって意図的に引き起こされる可能性があることを示します。
いくつかの入力や摂動のために自然に発生する障害に加えて、敵は故意にフォールバックを誘発するために訓練時間攻撃を使用することができる。
我々は2つの新しいアベイラビリティーアタックを設計し、これらの脅威の実用的妥当性を示す。
論文 参考訳(メタデータ) (2021-08-25T15:49:10Z) - Certified Distributional Robustness on Smoothed Classifiers [27.006844966157317]
本稿では,ロバスト性証明として,入力分布に対する最悪の逆損失を提案する。
双対性と滑らか性を利用して、証明書のサロゲートとして容易に計算できる上限を与える。
論文 参考訳(メタデータ) (2020-10-21T13:22:25Z) - Breaking certified defenses: Semantic adversarial examples with spoofed
robustness certificates [57.52763961195292]
本稿では,分類器のラベル付け機能だけでなく,証明書生成機能を利用した新たな攻撃を提案する。
提案手法は, 画像がクラス境界から遠ざかる大きな摂動を, 対向例の不受容性を保ちながら適用する。
論文 参考訳(メタデータ) (2020-03-19T17:59:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。