論文の概要: A Finer Calibration Analysis for Adversarial Robustness
- arxiv url: http://arxiv.org/abs/2105.01550v1
- Date: Tue, 4 May 2021 14:59:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-05 14:44:49.733274
- Title: A Finer Calibration Analysis for Adversarial Robustness
- Title(参考訳): 逆ロバスト性を考慮した高精度校正解析
- Authors: Pranjal Awasthi, Anqi Mao, Mehryar Mohri, Yutao Zhong
- Abstract要約: 本稿では,逆ロバスト分類のための$h$-calibrationのより一般的な解析を行う。
私たちの結果は、機械学習で使われる最も一般的な仮説セットに当てはまる。
- 参考スコア(独自算出の注目度): 48.38376323875314
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a more general analysis of $H$-calibration for adversarially
robust classification. By adopting a finer definition of calibration, we can
cover settings beyond the restricted hypothesis sets studied in previous work.
In particular, our results hold for most common hypothesis sets used in machine
learning. We both fix some previous calibration results (Bao et al., 2020) and
generalize others (Awasthi et al., 2021). Moreover, our calibration results,
combined with the previous study of consistency by Awasthi et al. (2021), also
lead to more general $H$-consistency results covering common hypothesis sets.
- Abstract(参考訳): 本稿では,逆ロバスト分類のための$h$-calibrationのより一般的な解析を行う。
キャリブレーションのより細かい定義を採用することで、以前の研究で研究された制限された仮説セット以上の設定をカバーできる。
特に、私たちの結果は機械学習で使われる一般的な仮説セットに当てはまる。
我々は、以前の校正結果(Bao et al., 2020)を修正し、他の結果を一般化する(Awasthi et al., 2021)。
さらに, キャリブレーションの結果と, Awasthiらによる従来の研究とを合わせて検討した。
(2021) は、一般的な仮説集合をカバーするより一般的な$H$一貫性の結果をもたらす。
関連論文リスト
- A Confidence Interval for the $\ell_2$ Expected Calibration Error [35.88784957918326]
我々は信頼区間を$ell$ expected the Error (ECE) で開発する。
信頼性キャリブレーションの一般的な概念とキャリブレーションの両方を含む,トップ1からk$のキャリブレーションを考える。
ECEのデバイアスド推定器では、正規性を示すが、校正モデルとミスドモデルに対する収束率と分散は異なる。
論文 参考訳(メタデータ) (2024-08-16T20:00:08Z) - PAC-Bayes Analysis for Recalibration in Classification [4.005483185111992]
我々は,大まかに正しい(PAC)ベイズフレームワークの下でキャリブレーション誤差の一般化解析を行う。
次に,一般化理論に基づく一般化対応再校正アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-06-10T12:53:13Z) - Orthogonal Causal Calibration [55.28164682911196]
我々は、任意の損失$ell$に対して、任意の因果パラメータのキャリブレーション誤差$theta$の一般的な上限を証明した。
我々は、因果校正のための2つのサンプル分割アルゴリズムの収束解析に境界を用いる。
論文 参考訳(メタデータ) (2024-06-04T03:35:25Z) - Optimizing Calibration by Gaining Aware of Prediction Correctness [30.619608580138802]
クロスエントロピー(CE)損失はキャリブレータトレーニングに広く使われており、基底真理クラスに対する信頼を高めるためにモデルを強制する。
本稿では, キャリブレーションの目的から得られた, ポストホックキャリブレーションの新たなキャリブレーション手法を提案する。
論文 参考訳(メタデータ) (2024-04-19T17:25:43Z) - Certifying Ensembles: A General Certification Theory with
S-Lipschitzness [128.2881318211724]
組み立ては、一般化、不確実性推定、校正、コンセプトドリフトの効果の緩和に有用であることが示されている。
本研究では、S-Lipschitz分類器を導入し、アンサンブルの理論的堅牢性を分析することにより、リプシッツ連続性を一般化する。
論文 参考訳(メタデータ) (2023-04-25T17:50:45Z) - Assaying Out-Of-Distribution Generalization in Transfer Learning [103.57862972967273]
私たちは、経験的に対処するメッセージの相違を強調して、以前の作業の統一的なビューを取ります。
私たちは9つの異なるアーキテクチャから、多数の、あるいは少数の設定で31K以上のネットワークを微調整しました。
論文 参考訳(メタデータ) (2022-07-19T12:52:33Z) - T-Cal: An optimal test for the calibration of predictive models [49.11538724574202]
有限検証データセットを用いた予測モデルの誤校正を仮説検証問題として検討する。
誤校正の検出は、クラスの条件付き確率が予測の十分滑らかな関数である場合にのみ可能である。
我々は、$ell$-Expected Error(ECE)のデバイアスドプラグイン推定器に基づくキャリブレーションのためのミニマックステストであるT-Calを提案する。
論文 参考訳(メタデータ) (2022-03-03T16:58:54Z) - Should Ensemble Members Be Calibrated? [16.331175260764]
現代のディープニューラルネットワークはしばしば、キャリブレーションが不十分であることが観察される。
ディープラーニングアプローチは、多数のモデルパラメータを利用する。
本稿では,キャリブレーション方式の深層アンサンブルへの適用について検討する。
論文 参考訳(メタデータ) (2021-01-13T23:59:00Z) - Individual Calibration with Randomized Forecasting [116.2086707626651]
予測値がランダムに設定された場合,各サンプルのキャリブレーションは回帰設定で可能であることを示す。
我々は、個別の校正を強制する訓練目標を設計し、それをランダム化された回帰関数の訓練に使用する。
論文 参考訳(メタデータ) (2020-06-18T05:53:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。