論文の概要: It's Simplex! Disaggregating Measures to Improve Certified Robustness
- arxiv url: http://arxiv.org/abs/2309.11005v1
- Date: Wed, 20 Sep 2023 02:16:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-21 17:33:11.829354
- Title: It's Simplex! Disaggregating Measures to Improve Certified Robustness
- Title(参考訳): 単純だ!
認定ロバスト性向上のための分散化対策
- Authors: Andrew C. Cullen and Paul Montague and Shijie Liu and Sarah M. Erfani
and Benjamin I.P. Rubinstein
- Abstract要約: 本研究は,認証機構の分析を改善するための2つのアプローチを提案する。
新しい認証アプローチは、達成可能な認定範囲の2倍以上の可能性を秘めている。
経験的評価は、我々の新しいアプローチがノイズスケール$sigma = 1$で9%以上のサンプルを認証できることを検証する。
- 参考スコア(独自算出の注目度): 32.63920797751968
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Certified robustness circumvents the fragility of defences against
adversarial attacks, by endowing model predictions with guarantees of class
invariance for attacks up to a calculated size. While there is value in these
certifications, the techniques through which we assess their performance do not
present a proper accounting of their strengths and weaknesses, as their
analysis has eschewed consideration of performance over individual samples in
favour of aggregated measures. By considering the potential output space of
certified models, this work presents two distinct approaches to improve the
analysis of certification mechanisms, that allow for both dataset-independent
and dataset-dependent measures of certification performance. Embracing such a
perspective uncovers new certification approaches, which have the potential to
more than double the achievable radius of certification, relative to current
state-of-the-art. Empirical evaluation verifies that our new approach can
certify $9\%$ more samples at noise scale $\sigma = 1$, with greater relative
improvements observed as the difficulty of the predictive task increases.
- Abstract(参考訳): 認証された堅牢性は、計算されたサイズまでの攻撃に対するクラス不変性の保証をモデル予測に与えることで、敵攻撃に対する防御の脆弱さを回避する。
これらの認定には価値はあるが、それらの実績を評価する手法は、それらの分析が個別のサンプルに対するパフォーマンスの考慮を緩和し、総合的な尺度を支持しているため、その強みと弱みの適切な説明を示さない。
認定モデルの潜在的な出力空間を考慮することで、この研究は、認証機構の分析を改善するための2つの異なるアプローチを示し、データセット非依存とデータセットに依存しない認証性能の両対策を可能にする。
このような視点を取り入れることで、現在の最先端技術と比較して、達成可能な認定半径の2倍以上の可能性を秘めている、新たな認証アプローチが明らかになる。
実験的な評価により,新しい手法ではノイズスケールで9\%$以上のサンプルを認証することが可能であり,予測タスクの難易度が増大するにつれて,相対的な改善が見られた。
関連論文リスト
- FullCert: Deterministic End-to-End Certification for Training and Inference of Neural Networks [62.897993591443594]
FullCertは、音と決定論的境界を持つ最初のエンドツーエンドの認証器である。
2つのデータセットに対してFullCertの有効性を実験的に示す。
論文 参考訳(メタデータ) (2024-06-17T13:23:52Z) - Provably Unlearnable Data Examples [27.24152626809928]
原文(投稿日:2012/09/19)へのリンク 未許可のモデルでは、共有データを学習不能にするための努力が続けられている。
本稿では、学習不能データセットのいわゆる$(q, eta)$-Learnabilityを認証するためのメカニズムを提案する。
認証の低い$(q, eta)$-Learnabilityは、データセットに対するより堅牢で効果的な保護を示している。
論文 参考訳(メタデータ) (2024-05-06T09:48:47Z) - Doubly Robust Instance-Reweighted Adversarial Training [107.40683655362285]
本稿では,2重のインスタンス再重み付き対向フレームワークを提案する。
KL偏差正規化損失関数の最適化により重みを求める。
提案手法は, 平均ロバスト性能において, 最先端のベースライン法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-08-01T06:16:18Z) - Et Tu Certifications: Robustness Certificates Yield Better Adversarial Examples [30.42301446202426]
我々の新しいEmphCertification Aware Attackは、計算効率のよい規範最小化対逆例を生成するために認証を利用する。
これらの攻撃は、認証境界の厳密性を評価するために使用できるが、認定のリリースは、パラドックス的にセキュリティを低下させる可能性があることも強調している。
論文 参考訳(メタデータ) (2023-02-09T00:10:05Z) - Monotonicity and Double Descent in Uncertainty Estimation with Gaussian
Processes [52.92110730286403]
限界確率はクロスバリデーションの指標を思い起こさせるべきであり、どちらもより大きな入力次元で劣化すべきである、と一般的に信じられている。
我々は,ハイパーパラメータをチューニングすることにより,入力次元と単調に改善できることを証明した。
また、クロスバリデーションの指標は、二重降下の特徴である質的に異なる挙動を示すことも証明した。
論文 参考訳(メタデータ) (2022-10-14T08:09:33Z) - Reducing Certified Regression to Certified Classification [11.663072799764542]
本研究は、認証された回帰防御について検討する。
トレーニングセットアタックの下で、回帰器の予測がどの程度変化するか、保証された制限を提供する。
実証可能な6つの新しい回帰器を提案する。
論文 参考訳(メタデータ) (2022-08-29T21:52:41Z) - Improved Certified Defenses against Data Poisoning with (Deterministic)
Finite Aggregation [122.83280749890078]
本報告では, 一般中毒に対する予防的対策として, フィニット・アグリゲーション(Finite Aggregation)を提案する。
トレーニングセットを直接非結合部分集合に分割するDPAとは対照的に、我々の方法はまず、トレーニングセットをより小さな非結合部分集合に分割する。
我々は、決定論的および集約的認証された防御設計をブリッジして、我々の方法の代替的な見解を提供する。
論文 参考訳(メタデータ) (2022-02-05T20:08:58Z) - Certified Adversarial Defenses Meet Out-of-Distribution Corruptions:
Benchmarking Robustness and Simple Baselines [65.0803400763215]
この研究は、最先端のロバストモデルがアウト・オブ・ディストリビューションデータに遭遇した場合、敵のロバスト性がどのように変化を保証しているかを批判的に検証する。
本稿では,トレーニングデータのスペクトルカバレッジを改善するために,新たなデータ拡張方式であるFourierMixを提案する。
また,FourierMixの拡張により,様々なOODベンチマークにおいて,より優れたロバスト性保証を実現することが可能となる。
論文 参考訳(メタデータ) (2021-12-01T17:11:22Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z) - Certified Distributional Robustness on Smoothed Classifiers [27.006844966157317]
本稿では,ロバスト性証明として,入力分布に対する最悪の逆損失を提案する。
双対性と滑らか性を利用して、証明書のサロゲートとして容易に計算できる上限を与える。
論文 参考訳(メタデータ) (2020-10-21T13:22:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。