論文の概要: Towards Calibrated Deep Clustering Network
- arxiv url: http://arxiv.org/abs/2403.02998v1
- Date: Mon, 4 Mar 2024 11:23:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-06 14:28:18.593943
- Title: Towards Calibrated Deep Clustering Network
- Title(参考訳): 深層クラスタリングネットワークの高度化に向けて
- Authors: Yuheng Jia, Jianhong Cheng, Hui Liu, Junhui Hou
- Abstract要約: 推定された信頼度と実際の精度を効果的に調整できる新しいデュアルヘッドディープクラスタリングパイプラインを提案する。
提案するキャリブレーション・ディープ・クラスタリング・フレームワークは,キャリブレーションの予測誤差から,最先端のディープ・クラスタリング手法を約10倍超えた。
- 参考スコア(独自算出の注目度): 66.32979175252478
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep clustering has exhibited remarkable performance; however, the
overconfidence problem, i.e., the estimated confidence for a sample belonging
to a particular cluster greatly exceeds its actual prediction accuracy, has
been overlooked in prior research. To tackle this critical issue, we pioneer
the development of a calibrated deep clustering framework. Specifically, we
propose a novel dual-head deep clustering pipeline that can effectively
calibrate the estimated confidence and the actual accuracy. The calibration
head adjusts the overconfident predictions of the clustering head using
regularization methods, generating prediction confidence and pseudo-labels that
match the model learning status. This calibration process also guides the
clustering head in dynamically selecting reliable high-confidence samples for
training. Additionally, we introduce an effective network initialization
strategy that enhances both training speed and network robustness. Extensive
experiments demonstrate the proposed calibrated deep clustering framework not
only surpasses state-of-the-art deep clustering methods by approximately 10
times in terms of expected calibration error but also significantly outperforms
them in terms of clustering accuracy.
- Abstract(参考訳): 深層クラスタリングは目覚ましい性能を示したが、特定のクラスタに属するサンプルの信頼度が実際の予測精度を大きく上回っているというオーバー信頼の問題が、以前の研究で見過ごされてきた。
この重要な問題に対処するため、我々はキャリブレーションされたディープクラスタリングフレームワークの開発を開拓した。
具体的には、推定された信頼度と実際の精度を効果的に調整できる新しいデュアルヘッドディープクラスタリングパイプラインを提案する。
キャリブレーションヘッドは、正規化手法を用いてクラスタリングヘッドの過信予測を調整し、モデル学習状態と一致する予測信頼度と擬似ラベルを生成する。
このキャリブレーションプロセスは、トレーニングのために信頼性の高い高信頼サンプルを動的に選択するクラスタリングヘッドをガイドする。
さらに,トレーニング速度とネットワーク堅牢性を両立させる効果的なネットワーク初期化戦略を導入する。
広範な実験により,提案手法が最先端のディープクラスタリング法を約10倍上回るだけでなく,クラスタリング精度の面でも大幅に上回ることを示した。
関連論文リスト
- Revisiting Confidence Estimation: Towards Reliable Failure Prediction [53.79160907725975]
多くの信頼度推定法は誤分類誤りを検出するのに有害である。
本稿では, 最先端の故障予測性能を示す平坦な最小値を求めることにより, 信頼性ギャップを拡大することを提案する。
論文 参考訳(メタデータ) (2024-03-05T11:44:14Z) - Domain-adaptive and Subgroup-specific Cascaded Temperature Regression
for Out-of-distribution Calibration [16.930766717110053]
本稿では, メタセットをベースとした新しい温度回帰法を提案し, ポストホックキャリブレーション法を提案する。
予測されたカテゴリと信頼度に基づいて,各メタセットをサブグループに分割し,多様な不確実性を捉える。
回帰ネットワークは、カテゴリ特化および信頼レベル特化スケーリングを導出し、メタセット間のキャリブレーションを達成するように訓練される。
論文 参考訳(メタデータ) (2024-02-14T14:35:57Z) - Mixing Classifiers to Alleviate the Accuracy-Robustness Trade-Off [8.169499497403102]
本稿では、標準ニューラルネットワークとロバストニューラルネットワークの出力確率を混合した理論的動機付け型定式化を提案する。
数値実験により,混合分類器は精度・損耗トレードオフを著しく改善することを確認した。
論文 参考訳(メタデータ) (2023-11-26T02:25:30Z) - Learning Sample Difficulty from Pre-trained Models for Reliable
Prediction [55.77136037458667]
本稿では,大規模事前学習モデルを用いて,サンプル難易度を考慮したエントロピー正規化による下流モデルトレーニングを指導する。
我々は、挑戦的なベンチマークで精度と不確実性の校正を同時に改善する。
論文 参考訳(メタデータ) (2023-04-20T07:29:23Z) - Calibration of Neural Networks [77.34726150561087]
本稿では,ニューラルネットワークの文脈における信頼性校正問題について調査する。
我々は,問題文,キャリブレーション定義,評価に対する異なるアプローチについて分析する。
実験実験では、様々なデータセットとモデルをカバーし、異なる基準に従って校正方法を比較する。
論文 参考訳(メタデータ) (2023-03-19T20:27:51Z) - On Calibrating Semantic Segmentation Models: Analyses and An Algorithm [51.85289816613351]
セマンティックセグメンテーションキャリブレーションの問題について検討する。
モデルキャパシティ、作物サイズ、マルチスケールテスト、予測精度はキャリブレーションに影響を及ぼす。
我々は、単純で統一的で効果的なアプローチ、すなわち選択的スケーリングを提案する。
論文 参考訳(メタデータ) (2022-12-22T22:05:16Z) - Calibrating Deep Neural Networks using Explicit Regularisation and
Dynamic Data Pruning [25.982037837953268]
ディープニューラルネットワーク(DNN)は誤った予測をしがちで、予測された出力と関連する信頼スコアのミスマッチを示すことが多い。
そこで本研究では,分類損失を伴う新たな正規化手法を提案する。
論文 参考訳(メタデータ) (2022-12-20T05:34:58Z) - On double-descent in uncertainty quantification in overparametrized
models [24.073221004661427]
不確かさの定量化は、信頼性と信頼性のある機械学習における中心的な課題である。
最適正規化推定器のキャリブレーション曲線において, 分類精度とキャリブレーションのトレードオフを示す。
これは経験的ベイズ法とは対照的であり、高次一般化誤差と過度パラメトリゼーションにもかかわらず、我々の設定では十分に校正されていることを示す。
論文 参考訳(メタデータ) (2022-10-23T16:01:08Z) - Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift [100.52588638477862]
後続正則化に基づく近似ベイズ推定法を開発した。
前立腺癌の予後モデルを世界規模で導入する上で,本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-06-26T13:50:19Z) - Calibrate and Prune: Improving Reliability of Lottery Tickets Through
Prediction Calibration [40.203492372949576]
未確認の信頼を持つ監視されたモデルは、誤った予測をしたとしても過信される傾向がある。
パラメータの過剰なネットワークにおける明確な信頼度校正が、その結果の宝くじの品質に与える影響について検討する。
我々の実証研究は、キャリブレーション機構を含むと、より効果的な宝くじチケットにつながることを明らかにしている。
論文 参考訳(メタデータ) (2020-02-10T15:42:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。