論文の概要: DATS: Distance-Aware Temperature Scaling for Calibrated Class-Incremental Learning
- arxiv url: http://arxiv.org/abs/2509.21161v1
- Date: Thu, 25 Sep 2025 13:46:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-26 20:58:12.946801
- Title: DATS: Distance-Aware Temperature Scaling for Calibrated Class-Incremental Learning
- Title(参考訳): DATS: Calibrated Class-Incremental Learningのための距離対応温度スケーリング
- Authors: Giuseppe Serra, Florian Buettner,
- Abstract要約: 連続学習(CL)は、新しいクラスの連続から1つのモデルを漸進的に学習できる能力に注目が集まっている。
安全クリティカルなアプリケーションでは、予測モデルは、その不確実性(すなわち、ターゲットイベントの真の頻度に一致した信頼スコア)を確実に伝達することができる。
本研究では,プロトタイプに基づく距離推定と距離認識キャリブレーションを組み合わせた距離認識温度スケーリング(DATS)を提案し,タスク近接を推定し,先行タスク情報なしで適応温度を割り当てる。
- 参考スコア(独自算出の注目度): 13.864609787260298
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Continual Learning (CL) is recently gaining increasing attention for its ability to enable a single model to learn incrementally from a sequence of new classes. In this scenario, it is important to keep consistent predictive performance across all the classes and prevent the so-called Catastrophic Forgetting (CF). However, in safety-critical applications, predictive performance alone is insufficient. Predictive models should also be able to reliably communicate their uncertainty in a calibrated manner - that is, with confidence scores aligned to the true frequencies of target events. Existing approaches in CL address calibration primarily from a data-centric perspective, relying on a single temperature shared across all tasks. Such solutions overlook task-specific differences, leading to large fluctuations in calibration error across tasks. For this reason, we argue that a more principled approach should adapt the temperature according to the distance to the current task. However, the unavailability of the task information at test time/during deployment poses a major challenge to achieve the intended objective. For this, we propose Distance-Aware Temperature Scaling (DATS), which combines prototype-based distance estimation with distance-aware calibration to infer task proximity and assign adaptive temperatures without prior task information. Through extensive empirical evaluation on both standard benchmarks and real-world, imbalanced datasets taken from the biomedical domain, our approach demonstrates to be stable, reliable and consistent in reducing calibration error across tasks compared to state-of-the-art approaches.
- Abstract(参考訳): 連続学習(CL)は、新しいクラスのシーケンスから1つのモデルを漸進的に学習できる能力に注目が集まっている。
このシナリオでは、すべてのクラスで一貫した予測性能を維持し、いわゆるカタストロフィック・フォーッティング(CF)を防ぐことが重要です。
しかし、安全クリティカルなアプリケーションでは、予測性能だけでは不十分である。
予測モデルは、その不確実性をキャリブレートされた方法で確実に伝達することができる。
CLアドレスキャリブレーションの既存のアプローチは、主にデータ中心の観点から、すべてのタスクで共有される単一の温度に依存する。
このような解はタスク固有の違いを見落とし、タスク間のキャリブレーション誤差が大きく変動する。
このため、より原理化されたアプローチは、現在のタスクとの距離に応じて温度に適応するべきであると論じる。
しかし、テスト時/運用中のタスク情報の有効性は、意図した目的を達成する上で大きな課題となる。
そこで本研究では,プロトタイプベース距離推定と距離認識キャリブレーションを組み合わせた距離認識温度スケーリング(DATS)を提案し,タスク近接を推定し,タスク情報なしで適応温度を割り当てる。
バイオメディカル領域から得られた非バランスなデータセットを,標準ベンチマークと実世界の双方で広範囲に評価することにより,現状のアプローチと比較して,タスク間のキャリブレーション誤差の低減に安定,信頼性,一貫性があることが実証された。
関連論文リスト
- T-CIL: Temperature Scaling using Adversarial Perturbation for Calibration in Class-Incremental Learning [27.247270530020664]
本研究では,クラス増分学習におけるモデルの信頼性校正について検討する。
ポストホック校正技術の多くは、クラス増分学習に典型的な古いタスクデータの限られた記憶を扱うように設計されていない。
本稿では,T-CILを提案する。T-CILは,従来のタスクに対する検証セットを使わずに,クラス増分学習のための新しい温度スケーリング手法である。
論文 参考訳(メタデータ) (2025-03-28T06:02:34Z) - Adaptive Retention & Correction: Test-Time Training for Continual Learning [114.5656325514408]
連続学習における一般的な問題は、最新のタスクに対する分類層のバイアスである。
アダプティブ・リテンション・アンド・コレクション (ARC) のアプローチを例に挙げる。
ARCはCIFAR-100とImagenet-Rのデータセットで平均2.7%と2.6%のパフォーマンス向上を達成した。
論文 参考訳(メタデータ) (2024-05-23T08:43:09Z) - Consistency-Guided Temperature Scaling Using Style and Content
Information for Out-of-Domain Calibration [24.89907794192497]
領域外キャリブレーション性能を向上させるために,整合性誘導温度スケーリング(CTS)を提案する。
私たちは、複数のドメイン設定でデータサンプルを適切に表現できる重要なコンポーネントであるスタイルとコンテントという2つの異なる側面を考慮に入れています。
これは、精度を損なうことなくソースドメインのみを使用することで実現でき、我々のスキームは様々な信頼できるAIシステムに直接適用できる。
論文 参考訳(メタデータ) (2024-02-22T23:36:18Z) - Selective Learning: Towards Robust Calibration with Dynamic Regularization [79.92633587914659]
ディープラーニングにおけるミススキャリブレーションとは、予測された信頼とパフォーマンスの間には相違がある、という意味である。
トレーニング中に何を学ぶべきかを学ぶことを目的とした動的正規化(DReg)を導入し、信頼度調整のトレードオフを回避する。
論文 参考訳(メタデータ) (2024-02-13T11:25:20Z) - Towards Robust Continual Learning with Bayesian Adaptive Moment Regularization [51.34904967046097]
継続的な学習は、モデルが以前に学習した情報を忘れてしまう破滅的な忘れ込みの課題を克服しようとする。
本稿では,パラメータ成長の制約を緩和し,破滅的な忘れを減らし,新しい事前手法を提案する。
以上の結果から, BAdamは, 単頭クラスインクリメンタル実験に挑戦する先行手法に対して, 最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-09-15T17:10:51Z) - PseudoCal: A Source-Free Approach to Unsupervised Uncertainty
Calibration in Domain Adaptation [87.69789891809562]
非教師なしドメイン適応(UDA)は、未ラベルのターゲットドメインのモデルの精度を向上する顕著な進歩を目撃している。
UDAモデルの安全な配置の重要な側面であるターゲット領域における予測不確実性の校正は、あまり注目されていない。
PseudoCalは、ラベルのないターゲットデータにのみ依存するソースフリーキャリブレーション手法である。
論文 参考訳(メタデータ) (2023-07-14T17:21:41Z) - EvCenterNet: Uncertainty Estimation for Object Detection using
Evidential Learning [26.535329379980094]
EvCenterNetは、新しい不確実性を認識した2Dオブジェクト検出フレームワークである。
分類と回帰の不確実性の両方を推定するために、顕在的学習を用いる。
我々は、KITTIデータセット上でモデルをトレーニングし、配布外のデータセットに挑戦して評価する。
論文 参考訳(メタデータ) (2023-03-06T11:07:11Z) - Estimating Model Performance under Domain Shifts with Class-Specific
Confidence Scores [25.162667593654206]
不均衡なデータセットのパフォーマンス推定の枠組みの中で,クラスワイドキャリブレーションを導入する。
我々は、4つのタスクの実験を行い、提案した修正により、不均衡なデータセットの推定精度を一貫して改善する。
論文 参考訳(メタデータ) (2022-07-20T15:04:32Z) - Sample-dependent Adaptive Temperature Scaling for Improved Calibration [95.7477042886242]
ニューラルネットワークの誤りを補うポストホックアプローチは、温度スケーリングを実行することだ。
入力毎に異なる温度値を予測し、信頼度と精度のミスマッチを調整することを提案する。
CIFAR10/100およびTiny-ImageNetデータセットを用いて,ResNet50およびWideResNet28-10アーキテクチャ上で本手法をテストする。
論文 参考訳(メタデータ) (2022-07-13T14:13:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。