論文の概要: Denoised Smoothing: A Provable Defense for Pretrained Classifiers
- arxiv url: http://arxiv.org/abs/2003.01908v2
- Date: Mon, 21 Sep 2020 02:20:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-26 12:05:46.778099
- Title: Denoised Smoothing: A Provable Defense for Pretrained Classifiers
- Title(参考訳): Denoized Smoothing: 事前訓練された分類器の防御
- Authors: Hadi Salman, Mingjie Sun, Greg Yang, Ashish Kapoor and J. Zico Kolter
- Abstract要約: 本稿では,事前訓練された画像分類器を$ell_p$の敵攻撃に対して確実に防御する手法を提案する。
この方法では、公開ビジョンAPIプロバイダやユーザは、トレーニング済みの非ロバスト分類サービスを、確実に堅牢なものにシームレスに変換することができる。
- 参考スコア(独自算出の注目度): 101.67773468882903
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a method for provably defending any pretrained image classifier
against $\ell_p$ adversarial attacks. This method, for instance, allows public
vision API providers and users to seamlessly convert pretrained non-robust
classification services into provably robust ones. By prepending a
custom-trained denoiser to any off-the-shelf image classifier and using
randomized smoothing, we effectively create a new classifier that is guaranteed
to be $\ell_p$-robust to adversarial examples, without modifying the pretrained
classifier. Our approach applies to both the white-box and the black-box
settings of the pretrained classifier. We refer to this defense as denoised
smoothing, and we demonstrate its effectiveness through extensive
experimentation on ImageNet and CIFAR-10. Finally, we use our approach to
provably defend the Azure, Google, AWS, and ClarifAI image classification APIs.
Our code replicating all the experiments in the paper can be found at:
https://github.com/microsoft/denoised-smoothing.
- Abstract(参考訳): 本論文では,プリトレーニングされた画像分類器を$\ell_p$攻撃に対して確実に防御する手法を提案する。
例えば、この方法では、公開ビジョンAPIプロバイダやユーザは、トレーニング済みの非ロバスト分類サービスを、確実に堅牢なものにシームレスに変換することができます。
既定のイメージ分類器にカスタムトレーニングされたdenoiserをプリプティフィケーションし、ランダムスムージングを使用することで、事前訓練された分類器を変更することなく、敵対的な例に対して$\ell_p$-robustと保証される新しい分類器を効果的に作成する。
我々のアプローチは、事前訓練された分類器のホワイトボックスとブラックボックス設定の両方に適用できる。
本稿では,この防衛効果について,ImageNet と CIFAR-10 の広範な実験を通じて,その効果を実証する。
最後に、当社のアプローチを使用して、Azure、Google、AWS、CrarifAIイメージ分類APIを確実に保護しています。
論文のすべての実験を複製するコードは、https://github.com/microsoft/denoized-smoothing.comで確認できます。
関連論文リスト
- ZeroPur: Succinct Training-Free Adversarial Purification [52.963392510839284]
敵の粛清は、様々な目に見えない敵の攻撃を防御できる防衛計算手法の一種である。
我々は、ZeroPurと呼ばれる、逆画像の浄化を更なる訓練なしに簡単な逆画像浄化法を提案する。
論文 参考訳(メタデータ) (2024-06-05T10:58:15Z) - Purify Unlearnable Examples via Rate-Constrained Variational Autoencoders [101.42201747763178]
未学習例(UE)は、正しくラベル付けされたトレーニング例に微妙な修正を加えることで、テストエラーの最大化を目指している。
我々の研究は、効率的な事前学習浄化法を構築するための、新しいゆがみ機構を提供する。
論文 参考訳(メタデータ) (2024-05-02T16:49:25Z) - FCert: Certifiably Robust Few-Shot Classification in the Era of Foundation Models [38.019489232264796]
FCertは、データ中毒攻撃に対する最初の認証された防御法であり、数発の分類である。
1)攻撃なしでの分類精度を維持すること,2)データ中毒攻撃に対する既存の認証された防御能力を上回ること,3)効率的で汎用的なこと,である。
論文 参考訳(メタデータ) (2024-04-12T17:50:40Z) - Rethinking Multiple Instance Learning for Whole Slide Image
Classification: A Bag-Level Classifier is a Good Instance-Level Teacher [22.080213609228547]
複数のインスタンス学習は、WSI(Whole Slide Image)分類において約束されている。
既存の手法は一般に2段階のアプローチを採用しており、学習不可能な特徴埋め込み段階と分類器訓練段階からなる。
バッグレベルの分類器は、良いインスタンスレベルの教師になれると提案する。
論文 参考訳(メタデータ) (2023-12-02T10:16:03Z) - Carefully Blending Adversarial Training and Purification Improves Adversarial Robustness [1.2289361708127877]
CARSOは、防御のために考案された適応的なエンドツーエンドのホワイトボックス攻撃から自身を守ることができる。
提案手法はCIFAR-10, CIFAR-100, TinyImageNet-200の最先端技術により改善されている。
論文 参考訳(メタデータ) (2023-05-25T09:04:31Z) - Exploring the Limits of Deep Image Clustering using Pretrained Models [1.1060425537315088]
本稿では,事前学習した特徴抽出器を利用してラベルなしで画像の分類を学習する手法を提案する。
本稿では,画像特徴間の関連性を学習する新たな目的について提案する。
論文 参考訳(メタデータ) (2023-03-31T08:56:29Z) - Assessing Neural Network Robustness via Adversarial Pivotal Tuning [24.329515700515806]
予め訓練された画像生成装置が、詳細で多様で逆転的な方法で画像のセマンティックな操作にどのように使用できるかを示す。
近年のGANに基づく光リアリスティック手法に着想を得て,Adversarial Pivotal Tuning (APT) と呼ばれる手法を提案する。
APTは、様々な事前訓練された分類器を騙した、幅広いクラス保存セマンティックイメージ操作が可能であることを実証する。
論文 参考訳(メタデータ) (2022-11-17T18:54:35Z) - Almost Tight L0-norm Certified Robustness of Top-k Predictions against
Adversarial Perturbations [78.23408201652984]
トップk予測は、マシンラーニング・アズ・ア・サービス、レコメンダ・システム、Web検索など、多くの現実世界のアプリケーションで使用されている。
我々の研究はランダム化平滑化に基づいており、入力をランダム化することで、証明可能なロバストな分類器を構築する。
例えば、攻撃者がテスト画像の5ピクセルを任意に摂動できる場合に、ImageNet上で69.2%の認定トップ3精度を達成する分類器を構築することができる。
論文 参考訳(メタデータ) (2020-11-15T21:34:44Z) - Learning and Evaluating Representations for Deep One-class
Classification [59.095144932794646]
ディープワンクラス分類のための2段階フレームワークを提案する。
まず,一級データから自己教師付き表現を学習し,学習した表現に基づいて一級分類器を構築する。
実験では、視覚領域の1クラス分類ベンチマークで最先端の性能を示す。
論文 参考訳(メタデータ) (2020-11-04T23:33:41Z) - SCAN: Learning to Classify Images without Labels [73.69513783788622]
機能学習とクラスタリングを分離する2段階のアプローチを提唱する。
表現学習からの自己教師型タスクを用いて意味論的意味のある特徴を得る。
我々は、ImageNet上で有望な結果を得、低データ体制下では、いくつかの半教師付き学習方法より優れています。
論文 参考訳(メタデータ) (2020-05-25T18:12:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。