論文の概要: Uncertainty Calibration for Deep Audio Classifiers
- arxiv url: http://arxiv.org/abs/2206.13071v1
- Date: Mon, 27 Jun 2022 06:33:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-28 17:19:03.828328
- Title: Uncertainty Calibration for Deep Audio Classifiers
- Title(参考訳): ディープオーディオ分類器の不確かさ校正
- Authors: Tong Ye, Shijing Si, Jianzong Wang, Ning Cheng and Jing Xiao
- Abstract要約: 適切に校正されたモデルは、その予測が確実であるときに正確であり、不正確な場合に高い不確実性を示すべきである。
音声分類データセットにおける一般的な校正手法の性能を実証的に研究する。
- 参考スコア(独自算出の注目度): 32.74241703428875
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although deep Neural Networks (DNNs) have achieved tremendous success in
audio classification tasks, their uncertainty calibration are still
under-explored. A well-calibrated model should be accurate when it is certain
about its prediction and indicate high uncertainty when it is likely to be
inaccurate. In this work, we investigate the uncertainty calibration for deep
audio classifiers. In particular, we empirically study the performance of
popular calibration methods: (i) Monte Carlo Dropout, (ii) ensemble, (iii)
focal loss, and (iv) spectral-normalized Gaussian process (SNGP), on audio
classification datasets. To this end, we evaluate (i-iv) for the tasks of
environment sound and music genre classification. Results indicate that
uncalibrated deep audio classifiers may be over-confident, and SNGP performs
the best and is very efficient on the two datasets of this paper.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、音声分類タスクにおいて大きな成功を収めているが、その不確実性校正はいまだに未調査である。
適切に校正されたモデルは、その予測が確実であるときに正確であり、不正確な場合に高い不確実性を示すべきである。
本研究では,深部オーディオ分類器における不確実性校正について検討する。
特に,一般的な校正法の性能を実証的に研究する。
(i)モンテカルロ・ドロップアウト
(ii)アンサンブル。
(iii)焦点損失、及び
(4)音声分類データセットにおけるスペクトル正規化ガウス過程(SNGP)
この目的のために,環境音のタスクと音楽ジャンルの分類を (i-iv) 評価した。
以上の結果から,未分類のディープオーディオ分類器は過信であり,SNGPは最高の性能を示し,本論文の2つのデータセット上で非常に効率的であることがわかった。
関連論文リスト
- Domain-adaptive and Subgroup-specific Cascaded Temperature Regression
for Out-of-distribution Calibration [16.930766717110053]
本稿では, メタセットをベースとした新しい温度回帰法を提案し, ポストホックキャリブレーション法を提案する。
予測されたカテゴリと信頼度に基づいて,各メタセットをサブグループに分割し,多様な不確実性を捉える。
回帰ネットワークは、カテゴリ特化および信頼レベル特化スケーリングを導出し、メタセット間のキャリブレーションを達成するように訓練される。
論文 参考訳(メタデータ) (2024-02-14T14:35:57Z) - Bridging Precision and Confidence: A Train-Time Loss for Calibrating
Object Detection [58.789823426981044]
本稿では,境界ボックスのクラス信頼度を予測精度に合わせることを目的とした,新たな補助損失定式化を提案する。
その結果,列車の走行時間損失はキャリブレーション基準を超過し,キャリブレーション誤差を低減させることがわかった。
論文 参考訳(メタデータ) (2023-03-25T08:56:21Z) - Investigation of Different Calibration Methods for Deep Speaker
Embedding based Verification Systems [66.61691401921296]
本稿では, ディープスピーカ埋込抽出器のスコアキャリブレーション法について検討する。
この研究のさらなる焦点は、スコア正規化がシステムの校正性能に与える影響を推定することである。
論文 参考訳(メタデータ) (2022-03-28T21:22:22Z) - UncertaINR: Uncertainty Quantification of End-to-End Implicit Neural
Representations for Computed Tomography [35.84136481440458]
Inlicit Neural representations (INRs) はシーン再構成とコンピュータグラフィックスにおいて印象的な結果を得た。
本稿では,INR,UncertaINRのベイズ的再構成について,計算トモグラフィーの文脈で検討する。
また,他の古典的,INR的,CNN的再構成技術と競合する精度を維持しつつ,良好な校正不確実性を達成できた。
論文 参考訳(メタデータ) (2022-02-22T12:19:03Z) - Prototypical Classifier for Robust Class-Imbalanced Learning [64.96088324684683]
埋め込みネットワークに付加的なパラメータを必要としないtextitPrototypealを提案する。
プロトタイプは、訓練セットがクラス不均衡であるにもかかわらず、すべてのクラスに対してバランスと同等の予測を生成する。
我々は, CIFAR-10LT, CIFAR-100LT, Webvision のデータセットを用いて, プロトタイプが芸術の状況と比較した場合, サブスタンスの改善が得られることを検証した。
論文 参考訳(メタデータ) (2021-10-22T01:55:01Z) - Uncertainty Sets for Image Classifiers using Conformal Prediction [112.54626392838163]
本稿では,任意の分類器を修飾して真のラベルを含む予測集合を,90%などのユーザ指定確率で出力するアルゴリズムを提案する。
このアルゴリズムはPlatetスケーリングのようにシンプルで高速だが、すべてのモデルとデータセットに対して正式な有限サンプルカバレッジを保証する。
提案手法は,Plattスケーリング後の可逆クラスの小さなスコアを正規化することにより,より安定した予測セットを与えるために,既存の共形予測アルゴリズムを改良する。
論文 参考訳(メタデータ) (2020-09-29T17:58:04Z) - Probabilistic Neighbourhood Component Analysis: Sample Efficient
Uncertainty Estimation in Deep Learning [25.8227937350516]
トレーニングデータの量が少ない場合,最先端のBNNとDeep Ensembleモデルの不確実性推定能力は著しく低下することを示す。
サンプル効率の高い非パラメトリックkNN手法の確率的一般化を提案する。
我々のアプローチは、深いkNNがその予測において根底にある不確かさを正確に定量化することを可能にする。
論文 参考訳(メタデータ) (2020-07-18T21:36:31Z) - Discriminative Jackknife: Quantifying Uncertainty in Deep Learning via
Higher-Order Influence Functions [121.10450359856242]
我々は、モデル損失関数の影響関数を利用して、予測信頼区間のジャックニフェ(または、アウト・ワン・アウト)推定器を構築する頻繁な手順を開発する。
1)および(2)を満たすDJは、幅広いディープラーニングモデルに適用可能であり、実装が容易であり、モデルトレーニングに干渉したり、精度を妥協したりすることなく、ポストホックな方法で適用することができる。
論文 参考訳(メタデータ) (2020-06-29T13:36:52Z) - Provable tradeoffs in adversarially robust classification [96.48180210364893]
我々は、ロバストなイソペリメトリに関する確率論の最近のブレークスルーを含む、新しいツールを開発し、活用する。
この結果から,データの不均衡時に増加する標準精度とロバスト精度の基本的なトレードオフが明らかになった。
論文 参考訳(メタデータ) (2020-06-09T09:58:19Z) - Mix-n-Match: Ensemble and Compositional Methods for Uncertainty
Calibration in Deep Learning [21.08664370117846]
我々は,Mix-n-Matchキャリブレーション戦略が,データ効率と表現力を大幅に向上することを示す。
標準評価プラクティスの潜在的な問題も明らかにします。
我々の手法はキャリブレーションと評価タスクの両方において最先端のソリューションより優れている。
論文 参考訳(メタデータ) (2020-03-16T17:00:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。