論文の概要: Breaking certified defenses: Semantic adversarial examples with spoofed
robustness certificates
- arxiv url: http://arxiv.org/abs/2003.08937v1
- Date: Thu, 19 Mar 2020 17:59:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-22 03:49:32.416853
- Title: Breaking certified defenses: Semantic adversarial examples with spoofed
robustness certificates
- Title(参考訳): 認定された防御を破る:spoofed robustness certificatesによるセマンティックな敵意の例
- Authors: Amin Ghiasi, Ali Shafahi and Tom Goldstein
- Abstract要約: 本稿では,分類器のラベル付け機能だけでなく,証明書生成機能を利用した新たな攻撃を提案する。
提案手法は, 画像がクラス境界から遠ざかる大きな摂動を, 対向例の不受容性を保ちながら適用する。
- 参考スコア(独自算出の注目度): 57.52763961195292
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To deflect adversarial attacks, a range of "certified" classifiers have been
proposed. In addition to labeling an image, certified classifiers produce (when
possible) a certificate guaranteeing that the input image is not an
$\ell_p$-bounded adversarial example. We present a new attack that exploits not
only the labelling function of a classifier, but also the certificate
generator. The proposed method applies large perturbations that place images
far from a class boundary while maintaining the imperceptibility property of
adversarial examples. The proposed "Shadow Attack" causes certifiably robust
networks to mislabel an image and simultaneously produce a "spoofed"
certificate of robustness.
- Abstract(参考訳): 敵攻撃を回避すべく、"認証"分類器が提案されている。
認証された分類器は、画像のラベル付けに加えて、入力画像が$\ell_p$-bounded adversarial の例でないことを保証する証明書を(可能であれば)生成する。
我々は,分類器のラベリング関数だけでなく,証明書生成器も利用する新たな攻撃を提案する。
提案手法は, 画像がクラス境界から遠ざかる大きな摂動を, 対向例の不受容性を保ちながら適用する。
提案された「シャドウ攻撃」は、確実にロバストなネットワークに画像のラベルを間違え、同時にロバスト性の「偽」証明書を生成する。
関連論文リスト
- CrossCert: A Cross-Checking Detection Approach to Patch Robustness Certification for Deep Learning Models [6.129515045488372]
パッチ堅牢性認証は、証明可能な保証付き敵パッチ攻撃に対する、新たな防御技術である。
本稿ではCrossCertと呼ばれる新しい防御技術を提案する。
論文 参考訳(メタデータ) (2024-05-13T11:54:03Z) - Counterfactual Image Generation for adversarially robust and
interpretable Classifiers [1.3859669037499769]
本稿では,GAN(Generative Adrial Networks)を基盤として,画像から画像への変換を利用した統合フレームワークを提案する。
これは、分類器と識別器を1つのモデルに組み合わせて、実際の画像をそれぞれのクラスに属性付け、生成されたイメージを「フェイク」として生成することで達成される。
モデルが敵攻撃に対するロバスト性の向上を示すことを示すとともに,判別器の「フェイクネス」値が予測の不確かさの指標となることを示す。
論文 参考訳(メタデータ) (2023-10-01T18:50:29Z) - Uncertainty-based Detection of Adversarial Attacks in Semantic
Segmentation [16.109860499330562]
本稿では,セマンティックセグメンテーションにおける敵攻撃検出のための不確実性に基づくアプローチを提案する。
本研究は,複数種類の敵対的攻撃を対象とする摂動画像の検出能力を示す。
論文 参考訳(メタデータ) (2023-05-22T08:36:35Z) - Et Tu Certifications: Robustness Certificates Yield Better Adversarial Examples [30.42301446202426]
我々の新しいEmphCertification Aware Attackは、計算効率のよい規範最小化対逆例を生成するために認証を利用する。
これらの攻撃は、認証境界の厳密性を評価するために使用できるが、認定のリリースは、パラドックス的にセキュリティを低下させる可能性があることも強調している。
論文 参考訳(メタデータ) (2023-02-09T00:10:05Z) - Collective Robustness Certificates: Exploiting Interdependence in Graph
Neural Networks [71.78900818931847]
ノード分類、画像分割、名前付き一致認識といったタスクでは、複数の予測を同時に出力する分類器があります。
既存の対向ロバスト性証明は、それぞれの予測を独立に考慮し、従ってそのようなタスクに対して過度に悲観的である。
本稿では,摂動下で安定に保たれることが保証される予測数を計算した最初の集合ロバスト性証明を提案する。
論文 参考訳(メタデータ) (2023-02-06T14:46:51Z) - Detection as Regression: Certified Object Detection by Median Smoothing [50.89591634725045]
この研究は、ランダム化平滑化による認定分類の最近の進歩によって動機付けられている。
我々は、$ell$-bounded攻撃に対するオブジェクト検出のための、最初のモデル非依存、トレーニング不要、認定された防御条件を得る。
論文 参考訳(メタデータ) (2020-07-07T18:40:19Z) - Denoised Smoothing: A Provable Defense for Pretrained Classifiers [101.67773468882903]
本稿では,事前訓練された画像分類器を$ell_p$の敵攻撃に対して確実に防御する手法を提案する。
この方法では、公開ビジョンAPIプロバイダやユーザは、トレーニング済みの非ロバスト分類サービスを、確実に堅牢なものにシームレスに変換することができる。
論文 参考訳(メタデータ) (2020-03-04T06:15:55Z) - (De)Randomized Smoothing for Certifiable Defense against Patch Attacks [136.79415677706612]
我々は、所定の画像とパッチ攻撃サイズを保証する、パッチ攻撃に対する認証可能な防御を導入する。
本手法はランダム化スムースなロバスト性スキームの幅広いクラスに関係している。
その結果,CIFAR-10およびImageNetに対するパッチ攻撃に対する認証済みの防御技術が確立した。
論文 参考訳(メタデータ) (2020-02-25T08:39:46Z) - Certified Robustness to Label-Flipping Attacks via Randomized Smoothing [105.91827623768724]
機械学習アルゴリズムは、データ中毒攻撃の影響を受けやすい。
任意の関数に対するランダム化スムージングの統一的なビューを示す。
本稿では,一般的なデータ中毒攻撃に対して,ポイントワイズで確実に堅牢な分類器を構築するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2020-02-07T21:28:30Z) - Generating Semantic Adversarial Examples via Feature Manipulation [23.48763375455514]
本稿では,意味的意味を持つ構造的摂動を設計することで,より現実的な敵攻撃を提案する。
提案手法は,非絡み付きラテント符号を用いて画像の意味的属性を演算する。
我々は、普遍的で画像に依存しないセマンティック・逆境の例の存在を実証する。
論文 参考訳(メタデータ) (2020-01-06T06:28:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。