論文の概要: An Underexplored Dilemma between Confidence and Calibration in Quantized
Neural Networks
- arxiv url: http://arxiv.org/abs/2111.08163v1
- Date: Wed, 10 Nov 2021 14:37:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-21 14:29:46.754382
- Title: An Underexplored Dilemma between Confidence and Calibration in Quantized
Neural Networks
- Title(参考訳): 量子化ニューラルネットワークにおける信頼度とキャリブレーションの未熟なジレンマ
- Authors: Guoxuan Xia, Sangwon Ha, Tiago Azevedo, Partha Maji
- Abstract要約: 現代の畳み込みニューラルネットワーク(CNN)は、目に見えない入力データのキャリブレーションに関して過信されていることが知られている。
予測される確率が下流の意思決定に使用される場合、これは望ましくない。
このロバスト性は、現代CNNの校正行動によって部分的に説明でき、過信によって改善される可能性がある。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern convolutional neural networks (CNNs) are known to be overconfident in
terms of their calibration on unseen input data. That is to say, they are more
confident than they are accurate. This is undesirable if the probabilities
predicted are to be used for downstream decision making. When considering
accuracy, CNNs are also surprisingly robust to compression techniques, such as
quantization, which aim to reduce computational and memory costs. We show that
this robustness can be partially explained by the calibration behavior of
modern CNNs, and may be improved with overconfidence. This is due to an
intuitive result: low confidence predictions are more likely to change
post-quantization, whilst being less accurate. High confidence predictions will
be more accurate, but more difficult to change. Thus, a minimal drop in
post-quantization accuracy is incurred. This presents a potential conflict in
neural network design: worse calibration from overconfidence may lead to better
robustness to quantization. We perform experiments applying post-training
quantization to a variety of CNNs, on the CIFAR-100 and ImageNet datasets.
- Abstract(参考訳): 現代の畳み込みニューラルネットワーク(CNN)は、目に見えない入力データのキャリブレーションに関して過信されていることが知られている。
つまり、彼らは正確さよりも自信を持っているのです。
予測される確率が下流の意思決定に使用される場合、これは望ましくない。
精度を考慮すると、CNNは計算とメモリコストの削減を目的とした量子化などの圧縮技術に対して驚くほど堅牢である。
このロバスト性は、現代CNNの校正行動によって部分的に説明でき、過信によって改善される可能性がある。
これは直感的な結果によるもので、信頼性の低い予測は、量子化後の変更が多いが、正確性は低い。
高い信頼性の予測はより正確だが、変更するのは難しいだろう。
これにより、量子化後の精度が最小限低下する。
これは、ニューラルネットワーク設計における潜在的な対立を示します。自信過剰によるキャリブレーションが悪化すると、量子化に対する堅牢性が向上します。
学習後の量子化をcifar-100およびimagenetデータセット上で様々なcnnに適用する実験を行う。
関連論文リスト
- Bridging Precision and Confidence: A Train-Time Loss for Calibrating
Object Detection [58.789823426981044]
本稿では,境界ボックスのクラス信頼度を予測精度に合わせることを目的とした,新たな補助損失定式化を提案する。
その結果,列車の走行時間損失はキャリブレーション基準を超過し,キャリブレーション誤差を低減させることがわかった。
論文 参考訳(メタデータ) (2023-03-25T08:56:21Z) - Improving the Accuracy and Robustness of CNNs Using a Deep CCA Neural
Data Regularizer [2.026424957803652]
畳み込みニューラルネットワーク(CNN)がオブジェクト認識においてより正確になるにつれて、それらの表現は霊長類の視覚システムとよりよく似ている。
この問題に対処する以前の試みは、正規化法の制限により、精度が極端に向上した。
我々は,CNNのイメージ表現とサル視覚野との類似性を最適化するために,ディープ相関解析(DCCA)を用いた新しいCNN用ニューラルデータ正規化器を開発した。
論文 参考訳(メタデータ) (2022-09-06T15:40:39Z) - Bayesian Confidence Calibration for Epistemic Uncertainty Modelling [4.358626952482686]
キャリブレーション法の不確実性を考慮した信頼度推定手法を提案する。
物体検出校正のための最先端校正性能を実現する。
論文 参考訳(メタデータ) (2021-09-21T10:53:16Z) - On the Dark Side of Calibration for Modern Neural Networks [65.83956184145477]
予測キャリブレーション誤差(ECE)を予測信頼度と改善度に分解する。
正規化に基づくキャリブレーションは、モデルの信頼性を損なうことのみに焦点を当てる。
ラベルの平滑化やミキサアップなど,多くのキャリブレーション手法により,DNNの精度を低下させることで,DNNの有用性を低下させることがわかった。
論文 参考訳(メタデータ) (2021-06-17T11:04:14Z) - Learning to Cascade: Confidence Calibration for Improving the Accuracy
and Computational Cost of Cascade Inference Systems [2.28438857884398]
ディープニューラルネットワークは非常に正確だが、自信過剰であることが知られている。
信頼度スコアが信頼度スコアを使用するシステムのパフォーマンスを改善するかどうかは不明だ。
カスケードへの学習」という新しい信頼性校正法を提案します。
論文 参考訳(メタデータ) (2021-04-15T07:09:09Z) - Improving Uncertainty Calibration via Prior Augmented Data [56.88185136509654]
ニューラルネットワークは、普遍関数近似器として機能することで、複雑なデータ分布から学習することに成功した。
彼らはしばしば予測に自信過剰であり、不正確で誤った確率的予測に繋がる。
本稿では,モデルが不当に過信である特徴空間の領域を探索し,それらの予測のエントロピーをラベルの以前の分布に対して条件的に高める手法を提案する。
論文 参考訳(メタデータ) (2021-02-22T07:02:37Z) - S2-BNN: Bridging the Gap Between Self-Supervised Real and 1-bit Neural
Networks via Guided Distribution Calibration [74.5509794733707]
本研究では, 実数値から, 最終予測分布上のバイナリネットワークへの誘導型学習パラダイムを提案する。
提案手法は,bnn上で5.515%の絶対利得で,単純なコントラスト学習ベースラインを向上できる。
提案手法は、単純なコントラスト学習ベースラインよりも大幅に改善され、多くの主流教師付きBNN手法に匹敵する。
論文 参考訳(メタデータ) (2021-02-17T18:59:28Z) - On Calibration of Mixup Training for Deep Neural Networks [1.6242924916178283]
我々は、Mixupが必ずしも校正を改善していないという実証的な証拠を論じ、提示する。
我々の損失はベイズ決定理論にインスパイアされ、確率的モデリングの損失を設計するための新しいトレーニングフレームワークが導入された。
キャリブレーション性能を一貫した改善を施した最先端の精度を提供する。
論文 参考訳(メタデータ) (2020-03-22T16:54:31Z) - Calibrating Deep Neural Networks using Focal Loss [77.92765139898906]
ミススキャリブレーション(Miscalibration)は、モデルの信頼性と正しさのミスマッチである。
焦点損失は、既に十分に校正されたモデルを学ぶことができることを示す。
ほぼすべてのケースにおいて精度を損なうことなく,最先端のキャリブレーションを達成できることを示す。
論文 参考訳(メタデータ) (2020-02-21T17:35:50Z) - Widening and Squeezing: Towards Accurate and Efficient QNNs [125.172220129257]
量子化ニューラルネットワーク(QNN)は、非常に安価な計算とストレージオーバーヘッドのため、業界にとって非常に魅力的なものだが、その性能は、完全な精度パラメータを持つネットワークよりも悪い。
既存の手法の多くは、より効果的なトレーニング技術を利用して、特にバイナリニューラルネットワークの性能を高めることを目的としている。
本稿では,従来の完全精度ネットワークで高次元量子化機能に特徴を投影することで,この問題に対処する。
論文 参考訳(メタデータ) (2020-02-03T04:11:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。