論文の概要: Integrating uncertainty quantification into randomized smoothing based robustness guarantees
- arxiv url: http://arxiv.org/abs/2410.20432v1
- Date: Sun, 27 Oct 2024 13:07:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-29 12:18:46.218824
- Title: Integrating uncertainty quantification into randomized smoothing based robustness guarantees
- Title(参考訳): ランダムな平滑化に基づくロバスト性保証への不確実性定量化の統合
- Authors: Sina Däubener, Kira Maag, David Krueger, Asja Fischer,
- Abstract要約: ディープニューラルネットワークは、安全クリティカルなアプリケーションにおいて有害な誤った予測を引き起こす可能性のある敵攻撃に対して脆弱である。
ランダムな滑らか化による認証されたロバスト性は、スムーズ化された分類器の予測が与えられた入力の周りの$ell$-ball内では変化しないという確率的保証を与える。
不確実性に基づく拒絶は、しばしば敵の攻撃からモデルを守るために実践的に適用される技法である。
新たなフレームワークは,ネットワークアーキテクチャや不確実性評価の体系的な評価を可能にすることを実証する。
- 参考スコア(独自算出の注目度): 18.572496359670797
- License:
- Abstract: Deep neural networks have proven to be extremely powerful, however, they are also vulnerable to adversarial attacks which can cause hazardous incorrect predictions in safety-critical applications. Certified robustness via randomized smoothing gives a probabilistic guarantee that the smoothed classifier's predictions will not change within an $\ell_2$-ball around a given input. On the other hand (uncertainty) score-based rejection is a technique often applied in practice to defend models against adversarial attacks. In this work, we fuse these two approaches by integrating a classifier that abstains from predicting when uncertainty is high into the certified robustness framework. This allows us to derive two novel robustness guarantees for uncertainty aware classifiers, namely (i) the radius of an $\ell_2$-ball around the input in which the same label is predicted and uncertainty remains low and (ii) the $\ell_2$-radius of a ball in which the predictions will either not change or be uncertain. While the former provides robustness guarantees with respect to attacks aiming at increased uncertainty, the latter informs about the amount of input perturbation necessary to lead the uncertainty aware model into a wrong prediction. Notably, this is on CIFAR10 up to 20.93% larger than for models not allowing for uncertainty based rejection. We demonstrate, that the novel framework allows for a systematic robustness evaluation of different network architectures and uncertainty measures and to identify desired properties of uncertainty quantification techniques. Moreover, we show that leveraging uncertainty in a smoothed classifier helps out-of-distribution detection.
- Abstract(参考訳): ディープニューラルネットワークは非常に強力であることが証明されているが、それらはまた、安全クリティカルなアプリケーションにおいて危険な誤った予測を引き起こす可能性のある敵攻撃にも脆弱である。
ランダムな滑らか化による認証されたロバスト性は、スムーズ化された分類器の予測が与えられた入力の周りの$\ell_2$-ball内では変化しないという確率的保証を与える。
一方、(不確実性)スコアベースの拒絶は、しばしば敵の攻撃からモデルを守るために実践的に用いられる技法である。
本研究では,不確実性が高い場合に予測できない分類器を認証された堅牢性フレームワークに組み込むことにより,これらの2つのアプローチを融合する。
これにより、不確実性を認識した分類器の2つの新しい堅牢性保証を導出できる。
i) 同じラベルが予測され、不確実性が低い入力の周りの$\ell_2$-ballの半径
(ii) ボールの$\ell_2$-radius は、予測が変化しないか、不確かでないものとなる。
前者は不確実性の増加を目的とした攻撃に対して堅牢性を保証する一方で、後者は不確実性認識モデルを誤った予測に導くのに必要な入力摂動の量について通知する。
特に、CIFAR10では、不確実性に基づく拒絶を許さないモデルよりも最大20.93%大きい。
本研究では,ネットワークアーキテクチャや不確実性対策の体系的ロバスト性評価と,不確実性定量化手法の望ましい特性の同定を可能にすることを実証する。
さらに,スムーズな分類器における不確実性を活用することにより,分布外検出が可能となることを示す。
関連論文リスト
- On the Robustness of Adversarial Training Against Uncertainty Attacks [9.180552487186485]
学習問題において、手元のタスクに固有のノイズは、ある程度の不確実性なく推論する可能性を妨げている。
本研究は、敵の例、すなわち、誤分類を引き起こす注意深く摂動されたサンプルに対する防御が、より安全で信頼性の高い不確実性推定を保証していることを実証的および理論的に明らかにする。
我々は,CIFAR-10およびImageNetデータセット上で,公開ベンチマークのRobustBenchから,複数の逆ロバストモデルを評価する。
論文 参考訳(メタデータ) (2024-10-29T11:12:44Z) - Boosting Adversarial Robustness using Feature Level Stochastic Smoothing [46.86097477465267]
敵の防御は、ディープニューラルネットワークの堅牢性を大幅に向上させた。
本研究では,ネットワーク予測における導入性に関する一般的な手法を提案する。
また、信頼性の低い予測を拒否する意思決定の円滑化にも活用する。
論文 参考訳(メタデータ) (2023-06-10T15:11:24Z) - Integrating Uncertainty into Neural Network-based Speech Enhancement [27.868722093985006]
時間周波数領域における監視されたマスキングアプローチは、ディープニューラルネットワークを使用して乗法マスクを推定し、クリーンな音声を抽出することを目的としている。
これにより、信頼性の保証や尺度を使わずに、各入力に対する単一の見積もりが導かれる。
クリーン音声推定における不確実性モデリングの利点について検討する。
論文 参考訳(メタデータ) (2023-05-15T15:55:12Z) - Reliability-Aware Prediction via Uncertainty Learning for Person Image
Retrieval [51.83967175585896]
UALは、データ不確実性とモデル不確実性を同時に考慮し、信頼性に配慮した予測を提供することを目的としている。
データ不確実性はサンプル固有のノイズを捕捉する」一方、モデル不確実性はサンプルの予測に対するモデルの信頼を表現している。
論文 参考訳(メタデータ) (2022-10-24T17:53:20Z) - Dense Uncertainty Estimation via an Ensemble-based Conditional Latent
Variable Model [68.34559610536614]
我々は、アレータリック不確実性はデータの固有の特性であり、偏見のないオラクルモデルでのみ正確に推定できると論じる。
そこで本研究では,軌道不確実性推定のためのオラクルモデルを近似するために,列車時の新しいサンプリングと選択戦略を提案する。
以上の結果から,提案手法は精度の高い決定論的結果と確実な不確実性推定の両方を達成できることが示唆された。
論文 参考訳(メタデータ) (2021-11-22T08:54:10Z) - Dense Uncertainty Estimation [62.23555922631451]
本稿では,ニューラルネットワークと不確実性推定手法について検討し,正確な決定論的予測と確実性推定の両方を実現する。
本研究では,アンサンブルに基づく手法と生成モデルに基づく手法の2つの不確実性推定法について検討し,それらの長所と短所を,完全/半端/弱度に制御されたフレームワークを用いて説明する。
論文 参考訳(メタデータ) (2021-10-13T01:23:48Z) - An Uncertainty Estimation Framework for Probabilistic Object Detection [5.83620245905973]
本稿では,物体検出における不確実性を推定する2つの一般的な手法を組み合わせた新しい手法を提案する。
我々のフレームワークは、予測の不確実性を近似するために、深いアンサンブルとモンテカルロのドロップアウトを利用する。
論文 参考訳(メタデータ) (2021-06-28T22:29:59Z) - Discriminative Jackknife: Quantifying Uncertainty in Deep Learning via
Higher-Order Influence Functions [121.10450359856242]
我々は、モデル損失関数の影響関数を利用して、予測信頼区間のジャックニフェ(または、アウト・ワン・アウト)推定器を構築する頻繁な手順を開発する。
1)および(2)を満たすDJは、幅広いディープラーニングモデルに適用可能であり、実装が容易であり、モデルトレーニングに干渉したり、精度を妥協したりすることなく、ポストホックな方法で適用することができる。
論文 参考訳(メタデータ) (2020-06-29T13:36:52Z) - Localization Uncertainty Estimation for Anchor-Free Object Detection [48.931731695431374]
アンカーベース物体検出のための既存の不確実性推定手法にはいくつかの制限がある。
アンカーフリー物体検出のためのUADと呼ばれる新しい位置推定不確実性推定手法を提案する。
本手法は,ボックスオフセットの4方向の不確かさを均一に捉え,どの方向が不確実であるかを判断する。
論文 参考訳(メタデータ) (2020-06-28T13:49:30Z) - Hidden Cost of Randomized Smoothing [72.93630656906599]
本稿では、現在のランダム化平滑化による副作用を指摘する。
具体的には,1)スムーズな分類器の決定境界が小さくなり,クラスレベルでの精度の相違が生じること,2)学習過程における雑音増強の適用は,一貫性のない学習目的による縮小問題を必ずしも解決しない,という2つの主要なポイントを具体化し,証明する。
論文 参考訳(メタデータ) (2020-03-02T23:37:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。