論文の概要: How robust accuracy suffers from certified training with convex
relaxations
- arxiv url: http://arxiv.org/abs/2306.06995v1
- Date: Mon, 12 Jun 2023 09:45:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-13 15:08:19.250268
- Title: How robust accuracy suffers from certified training with convex
relaxations
- Title(参考訳): 凸リラクゼーションを伴う認定訓練におけるロバストな正確性
- Authors: Piersilvio De Bartolomeis, Jacob Clarysse, Amartya Sanyal, Fanny Yang
- Abstract要約: アドリア攻撃は、安全クリティカルなアプリケーションに最先端の分類器を配置する上で重大な脅威となる。
この問題に対処するために、実証的な防御と認定された防御という2つの方法のクラスが登場した。
複数のコンピュータビジョンタスクにおいて、これらの2つの堅牢なトレーニングパラダイムの標準および堅牢なエラーを体系的に比較する。
- 参考スコア(独自算出の注目度): 12.292092677396347
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Adversarial attacks pose significant threats to deploying state-of-the-art
classifiers in safety-critical applications. Two classes of methods have
emerged to address this issue: empirical defences and certified defences.
Although certified defences come with robustness guarantees, empirical defences
such as adversarial training enjoy much higher popularity among practitioners.
In this paper, we systematically compare the standard and robust error of these
two robust training paradigms across multiple computer vision tasks. We show
that in most tasks and for both $\mathscr{l}_\infty$-ball and
$\mathscr{l}_2$-ball threat models, certified training with convex relaxations
suffers from worse standard and robust error than adversarial training. We
further explore how the error gap between certified and adversarial training
depends on the threat model and the data distribution. In particular, besides
the perturbation budget, we identify as important factors the shape of the
perturbation set and the implicit margin of the data distribution. We support
our arguments with extensive ablations on both synthetic and image datasets.
- Abstract(参考訳): 敵の攻撃は、安全クリティカルなアプリケーションにおける最先端の分類器のデプロイに重大な脅威をもたらす。
この問題に対処するための方法として、経験的防御と認定防衛という2つのクラスが登場した。
認証された防御は堅牢性を保証するが、敵の訓練のような経験的な防御は実践者の間ではるかに人気がある。
本稿では,これら2つのロバストなトレーニングパラダイムの標準とロバストエラーを,複数のコンピュータビジョンタスク間で系統的に比較する。
ほとんどのタスクでは、$\mathscr{l}_\infty$-ballと$\mathscr{l}_2$-ballの脅威モデルに対して、凸緩和による認定トレーニングは、敵のトレーニングよりも厳しい標準と堅牢なエラーに悩まされる。
さらに、認定トレーニングと敵対トレーニングの誤差ギャップが、脅威モデルとデータ分布にどのように依存するかを考察する。
特に摂動予算の他に、摂動集合の形状とデータ分布の暗黙の限界の重要な要因として特定する。
我々は、合成データセットと画像データセットの両方に関する広範囲にわたる議論を支持します。
関連論文リスト
- Certified Causal Defense with Generalizable Robustness [14.238441767523602]
本稿では,認証防衛における一般化問題に因果的視点を取り入れた新しい認証防衛フレームワークGLEANを提案する。
本フレームワークは,因果関係と入力とラベル間の素因果関係を乱すために,認証因果関係学習コンポーネントを統合する。
そこで我々は,潜在因果的要因に対する敵対的攻撃に対処するために,因果的に認証された防衛戦略を設計する。
論文 参考訳(メタデータ) (2024-08-28T00:14:09Z) - FullCert: Deterministic End-to-End Certification for Training and Inference of Neural Networks [62.897993591443594]
FullCertは、音と決定論的境界を持つ最初のエンドツーエンドの認証器である。
2つのデータセットに対してFullCertの有効性を実験的に示す。
論文 参考訳(メタデータ) (2024-06-17T13:23:52Z) - Efficient Adversarial Training in LLMs with Continuous Attacks [99.5882845458567]
大規模言語モデル(LLM)は、安全ガードレールをバイパスできる敵攻撃に対して脆弱である。
本稿では,2つの損失からなる高速対向訓練アルゴリズム(C-AdvUL)を提案する。
C-AdvIPOは、対向的に堅牢なアライメントのためのユーティリティデータを必要としない、対向型のIPOである。
論文 参考訳(メタデータ) (2024-05-24T14:20:09Z) - Doubly Robust Instance-Reweighted Adversarial Training [107.40683655362285]
本稿では,2重のインスタンス再重み付き対向フレームワークを提案する。
KL偏差正規化損失関数の最適化により重みを求める。
提案手法は, 平均ロバスト性能において, 最先端のベースライン法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-08-01T06:16:18Z) - On Evaluating the Adversarial Robustness of Semantic Segmentation Models [0.0]
敵の摂動に対する防御手段として、多くの敵の訓練アプローチが提案されている。
私たちは、前回の作業で堅牢であると主張するモデルが、実際にはまったく堅牢ではないことを初めて示しています。
次に, 強攻撃群においても, 合理的に堅牢なモデルを生成する, 単純な対向訓練アルゴリズムを評価する。
論文 参考訳(メタデータ) (2023-06-25T11:45:08Z) - Raising the Bar for Certified Adversarial Robustness with Diffusion
Models [9.684141378657522]
本研究では,同様のアプローチが決定論的証明された防御を著しく改善できることを実証する。
主な洞察の1つは、元のモデルのトレーニングとテストの精度の違いは、改善の規模を予測できることです。
提案手法は,CIFAR-10 上で $ell$ ($epsilon = 36/255$) および $ell_infty$ ($epsilon = 8/255$) 脅威モデルに対して,最先端の決定論的堅牢性証明を実現する。
論文 参考訳(メタデータ) (2023-05-17T17:29:10Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - Adversarial Robustness under Long-Tailed Distribution [93.50792075460336]
敵対的ロバスト性はディープネットワークの脆弱性と本質的特徴を明らかにすることで近年広く研究されている。
本研究では,長尾分布下における敵対的脆弱性と防御について検討する。
我々は、スケール不変とデータ再分散という2つの専用モジュールからなるクリーンで効果的なフレームワークであるRoBalを提案する。
論文 参考訳(メタデータ) (2021-04-06T17:53:08Z) - Certifiably-Robust Federated Adversarial Learning via Randomized
Smoothing [16.528628447356496]
本稿では,データプライベートな分散学習を実現するために,スムーズな手法を連携型対人訓練に取り入れる。
実験の結果,このような先進的な対人学習フレームワークは,集中的な訓練によって訓練されたモデルと同じくらい頑健なモデルを提供できることがわかった。
論文 参考訳(メタデータ) (2021-03-30T02:19:45Z) - Self-Progressing Robust Training [146.8337017922058]
敵対的なトレーニングのような現在の堅牢なトレーニング方法は、敵対的な例を生成するために「攻撃」を明示的に使用します。
我々はSPROUTと呼ばれる自己プログレッシブ・ロバスト・トレーニングのための新しいフレームワークを提案する。
その結果,スケーラブルで効果的で攻撃に依存しないロバストなトレーニング手法に新たな光を当てた。
論文 参考訳(メタデータ) (2020-12-22T00:45:24Z) - Asymptotic Behavior of Adversarial Training in Binary Classification [41.7567932118769]
敵の訓練は、敵の攻撃に対する防衛の最先端の方法と考えられている。
実際に成功したにもかかわらず、敵の訓練のパフォーマンスを理解する上でのいくつかの問題は未解決のままである。
2進分類における対角訓練の最小化のための正確な理論的予測を導出する。
論文 参考訳(メタデータ) (2020-10-26T01:44:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。