論文の概要: Reducing Certified Regression to Certified Classification
- arxiv url: http://arxiv.org/abs/2208.13904v1
- Date: Mon, 29 Aug 2022 21:52:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-31 12:52:34.970319
- Title: Reducing Certified Regression to Certified Classification
- Title(参考訳): 認定分類に対する認定回帰の低減
- Authors: Zayd Hammoudeh, Daniel Lowd
- Abstract要約: 本研究は、認証された回帰防御について検討する。
トレーニングセットアタックの下で、回帰器の予測がどの程度変化するか、保証された制限を提供する。
実証可能な6つの新しい回帰器を提案する。
- 参考スコア(独自算出の注目度): 11.663072799764542
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Adversarial training instances can severely distort a model's behavior. This
work investigates certified regression defenses, which provide guaranteed
limits on how much a regressor's prediction may change under a training-set
attack. Our key insight is that certified regression reduces to certified
classification when using median as a model's primary decision function.
Coupling our reduction with existing certified classifiers, we propose six new
provably-robust regressors. To the extent of our knowledge, this is the first
work that certifies the robustness of individual regression predictions without
any assumptions about the data distribution and model architecture. We also
show that existing state-of-the-art certified classifiers often make
overly-pessimistic assumptions that can degrade their provable guarantees. We
introduce a tighter analysis of model robustness, which in many cases results
in significantly improved certified guarantees. Lastly, we empirically
demonstrate our approaches' effectiveness on both regression and classification
data, where the accuracy of up to 50% of test predictions can be guaranteed
under 1% training-set corruption and up to 30% of predictions under 4%
corruption. Our source code is available at
https://github.com/ZaydH/certified-regression.
- Abstract(参考訳): 敵対的なトレーニングインスタンスは、モデルの振る舞いを著しく歪めます。
本研究は,レグレッサーの予測がトレーニングセット攻撃によってどの程度変化するかという制限を保証した,回帰防御の認定について検討する。
私たちの重要な洞察は、モデルの主要な決定関数として中央値を使用する場合、認定回帰は認定分類に還元されるということです。
既存の認証分類器との結合により,6つの新しいロバストレグレプタを提案する。
我々の知る限りでは、これはデータ分散とモデルアーキテクチャに関する仮定なしで個々の回帰予測の堅牢性を証明する最初の研究である。
また,既存の認定分類器では,証明可能な保証を低下させるような悲観的な仮定をすることがしばしばあることを示す。
モデルロバスト性に関するより強固な分析を導入することで、多くの場合、認定保証が大幅に改善される。
最後に、回帰データと分類データの両方に対する我々のアプローチの有効性を実証的に実証し、最大50%のテスト予測の精度を1%のトレーニングセットの破損下で保証し、最大30%の予測を4%の腐敗下で保証する。
ソースコードはhttps://github.com/zaydh/certified-regressionで入手できます。
関連論文リスト
- Rethinking Classifier Re-Training in Long-Tailed Recognition: A Simple
Logits Retargeting Approach [102.0769560460338]
我々は,クラスごとのサンプル数に関する事前知識を必要とせず,シンプルなロジットアプローチ(LORT)を開発した。
提案手法は,CIFAR100-LT, ImageNet-LT, iNaturalist 2018など,様々な不均衡データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-01T03:27:08Z) - Outlier detection by ensembling uncertainty with negative objectness [0.0]
外乱検出は、教師付き視覚認識の安全クリティカルな応用に欠かせない能力である。
我々は、K の基底クラスと1つの外れ値クラスに対応する K+1 ロジットの直接予測を再考する。
K+2クラスにマスクレベルの認識を組み込んだ高密度予測アーキテクチャに本手法を組み込む。
論文 参考訳(メタデータ) (2024-02-23T15:19:37Z) - Domain-adaptive and Subgroup-specific Cascaded Temperature Regression
for Out-of-distribution Calibration [16.930766717110053]
本稿では, メタセットをベースとした新しい温度回帰法を提案し, ポストホックキャリブレーション法を提案する。
予測されたカテゴリと信頼度に基づいて,各メタセットをサブグループに分割し,多様な不確実性を捉える。
回帰ネットワークは、カテゴリ特化および信頼レベル特化スケーリングを導出し、メタセット間のキャリブレーションを達成するように訓練される。
論文 参考訳(メタデータ) (2024-02-14T14:35:57Z) - It's Simplex! Disaggregating Measures to Improve Certified Robustness [32.63920797751968]
本研究は,認証機構の分析を改善するための2つのアプローチを提案する。
新しい認証アプローチは、達成可能な認定範囲の2倍以上の可能性を秘めている。
経験的評価は、我々の新しいアプローチがノイズスケール$sigma = 1$で9%以上のサンプルを認証できることを検証する。
論文 参考訳(メタデータ) (2023-09-20T02:16:19Z) - Calibrated Selective Classification [34.08454890436067]
そこで我々は,「不確か」な不確実性のある例を拒否する手法を提案する。
本稿では,選択的校正モデル学習のためのフレームワークを提案する。そこでは,任意のベースモデルの選択的校正誤差を改善するために,個別のセレクタネットワークを訓練する。
われわれは,複数画像分類と肺癌リスク評価におけるアプローチの実証的効果を実証した。
論文 参考訳(メタデータ) (2022-08-25T13:31:09Z) - Getting a-Round Guarantees: Floating-Point Attacks on Certified Robustness [19.380453459873298]
敵の例は、わずかな入力摂動によって機械学習分類器の決定を変更できるため、セキュリティリスクを引き起こす。
これらの保証は、ラウンドエラーを引き起こす浮動小数点表現の制限により無効化可能であることを示す。
この攻撃は、正確な認証保証を持つ線形分類器や、保守的な認証を持つニューラルネットワークに対して実行可能であることを示す。
論文 参考訳(メタデータ) (2022-05-20T13:07:36Z) - Leveraging Unlabeled Data to Predict Out-of-Distribution Performance [63.740181251997306]
実世界の機械学習デプロイメントは、ソース(トレーニング)とターゲット(テスト)ディストリビューションのミスマッチによって特徴づけられる。
本研究では,ラベル付きソースデータとラベルなしターゲットデータのみを用いて,対象領域の精度を予測する手法を検討する。
本稿では,モデルの信頼度をしきい値として学習し,精度をラベルなし例のごく一部として予測する実践的手法である平均閾値保持信頼度(ATC)を提案する。
論文 参考訳(メタデータ) (2022-01-11T23:01:12Z) - Regression Bugs Are In Your Model! Measuring, Reducing and Analyzing
Regressions In NLP Model Updates [68.09049111171862]
この研究は、NLPモデル更新における回帰エラーの定量化、低減、分析に重点を置いている。
回帰フリーモデル更新を制約付き最適化問題に定式化する。
モデルアンサンブルが回帰を減らす方法を実証的に分析します。
論文 参考訳(メタデータ) (2021-05-07T03:33:00Z) - Improving Uncertainty Calibration via Prior Augmented Data [56.88185136509654]
ニューラルネットワークは、普遍関数近似器として機能することで、複雑なデータ分布から学習することに成功した。
彼らはしばしば予測に自信過剰であり、不正確で誤った確率的予測に繋がる。
本稿では,モデルが不当に過信である特徴空間の領域を探索し,それらの予測のエントロピーをラベルの以前の分布に対して条件的に高める手法を提案する。
論文 参考訳(メタデータ) (2021-02-22T07:02:37Z) - Certifying Confidence via Randomized Smoothing [151.67113334248464]
ランダムな平滑化は、高次元の分類問題に対して良好な証明されたロバスト性を保証することが示されている。
ほとんどの平滑化法は、下層の分類器が予測する信頼性に関する情報を与えてくれない。
そこで本研究では,スムーズな分類器の予測信頼度を評価するために,認証ラジイを生成する手法を提案する。
論文 参考訳(メタデータ) (2020-09-17T04:37:26Z) - Detection as Regression: Certified Object Detection by Median Smoothing [50.89591634725045]
この研究は、ランダム化平滑化による認定分類の最近の進歩によって動機付けられている。
我々は、$ell$-bounded攻撃に対するオブジェクト検出のための、最初のモデル非依存、トレーニング不要、認定された防御条件を得る。
論文 参考訳(メタデータ) (2020-07-07T18:40:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。