論文の概要: Uncertainty-Calibrated Test-Time Model Adaptation without Forgetting
- arxiv url: http://arxiv.org/abs/2403.11491v1
- Date: Mon, 18 Mar 2024 05:49:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-19 16:36:25.749253
- Title: Uncertainty-Calibrated Test-Time Model Adaptation without Forgetting
- Title(参考訳): 不確実性校正試験時間モデル適応
- Authors: Mingkui Tan, Guohao Chen, Jiaxiang Wu, Yifan Zhang, Yaofo Chen, Peilin Zhao, Shuaicheng Niu,
- Abstract要約: テスト時間適応(TTA)は、与えられたモデルw.r.t.を任意のテストサンプルに適用することにより、トレーニングデータとテストデータの間の潜在的な分散シフトに取り組むことを目指している。
事前の手法は各テストサンプルに対してバックプロパゲーションを実行するため、多くのアプリケーションに対して許容できない最適化コストがかかる。
本稿では, 有効サンプル選択基準を策定し, 信頼性および非冗長なサンプルを同定する, 効率的なアンチフォッティングテスト時間適応法を提案する。
- 参考スコア(独自算出の注目度): 55.17761802332469
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Test-time adaptation (TTA) seeks to tackle potential distribution shifts between training and test data by adapting a given model w.r.t. any test sample. Although recent TTA has shown promising performance, we still face two key challenges: 1) prior methods perform backpropagation for each test sample, resulting in unbearable optimization costs to many applications; 2) while existing TTA can significantly improve the test performance on out-of-distribution data, they often suffer from severe performance degradation on in-distribution data after TTA (known as forgetting). To this end, we have proposed an Efficient Anti-Forgetting Test-Time Adaptation (EATA) method which develops an active sample selection criterion to identify reliable and non-redundant samples for test-time entropy minimization. To alleviate forgetting, EATA introduces a Fisher regularizer estimated from test samples to constrain important model parameters from drastic changes. However, in EATA, the adopted entropy loss consistently assigns higher confidence to predictions even for samples that are underlying uncertain, leading to overconfident predictions. To tackle this, we further propose EATA with Calibration (EATA-C) to separately exploit the reducible model uncertainty and the inherent data uncertainty for calibrated TTA. Specifically, we measure the model uncertainty by the divergence between predictions from the full network and its sub-networks, on which we propose a divergence loss to encourage consistent predictions instead of overconfident ones. To further recalibrate prediction confidence, we utilize the disagreement among predicted labels as an indicator of the data uncertainty, and then devise a min-max entropy regularizer to selectively increase and decrease prediction confidence for different samples. Experiments on image classification and semantic segmentation verify the effectiveness of our methods.
- Abstract(参考訳): テスト時間適応(TTA)は、任意のテストサンプルに与えられたモデルを適応させることで、トレーニングデータとテストデータの間の潜在的な分散シフトに取り組むことを目指している。
最近のTTAは有望なパフォーマンスを示しているが、それでも2つの大きな課題に直面している。
1) 先行手法は,各試験サンプルに対してバックプロパゲーションを行い,その結果,多くのアプリケーションに対して不当な最適化コストが発生する。
2) 既存のTTAはアウト・オブ・ディストリビューションデータにおいてテスト性能を著しく向上させることができるが,TTA後のイン・ディストリビューションデータ(「忘れること」として知られる)に深刻な性能低下を被る場合が多い。
この目的のために,テスト時間エントロピー最小化のための信頼性および非冗長なサンプルを識別するアクティブなサンプル選択基準を開発する,効率的なアンチフォッティングテスト時間適応法(EATA)を提案している。
忘れを緩和するため、EATAはテストサンプルから推定されるFisher正則化を導入し、重要なモデルパラメータを劇的な変化から制約する。
しかし、EATAでは、採用されるエントロピー損失は、根底にある不確実なサンプルであっても、常に高い信頼度を予測に割り当て、過信な予測をもたらす。
そこで本稿では, キャリブレーションを用いたEATA(EATA-C)を提案し, 再現可能なモデルの不確かさと, キャリブレーションされたTTAに固有のデータ不確かさを別々に活用する。
具体的には,全ネットワークからの予測とサブネットワーク間の分岐によってモデルの不確実性を計測し,その上で,過信ではなく一貫した予測を奨励する分散損失を提案する。
予測信頼度をさらに高めるため、予測ラベル間の不一致をデータ不確かさの指標として利用し、次にmin-maxエントロピー正規化器を考案し、異なるサンプルの予測信頼度を選択的に増加・減少させる。
画像分類とセマンティックセグメンテーションの実験により,本手法の有効性が検証された。
関連論文リスト
- DOTA: Distributional Test-Time Adaptation of Vision-Language Models [52.98590762456236]
トレーニングフリーテスト時動的アダプタ(TDA)は、この問題に対処するための有望なアプローチである。
単体テスト時間適応法(Dota)の簡易かつ効果的な方法を提案する。
Dotaは継続的にテストサンプルの分布を推定し、モデルがデプロイメント環境に継続的に適応できるようにします。
論文 参考訳(メタデータ) (2024-09-28T15:03:28Z) - AETTA: Label-Free Accuracy Estimation for Test-Time Adaptation [7.079932622432037]
テスト時間適応(TTA)は、未ラベルのテストデータを使用して、事前訓練されたモデルをドメインシフトに適応するための実行可能なソリューションとして登場した。
ラベルのないTTAの精度推定アルゴリズムであるAETTAを提案する。
AETTAはベースラインと比較して平均19.8%の精度で推定可能である。
論文 参考訳(メタデータ) (2024-04-01T04:21:49Z) - Entropy is not Enough for Test-Time Adaptation: From the Perspective of
Disentangled Factors [36.54076844195179]
テストタイム適応(TTA) 未確認のテストデータのための訓練済みのディープニューラルネットワーク。
本稿では,Destroy Your Object (DeYO) という新しいTTA手法を紹介する。
論文 参考訳(メタデータ) (2024-03-12T07:01:57Z) - Towards Open-Set Test-Time Adaptation Utilizing the Wisdom of Crowds in
Entropy Minimization [47.61333493671805]
テスト時間適応(TTA)メソッドは、未ラベルのターゲットドメインにソース事前学習モデルを適用するために、モデルの予測に依存する。
本稿では, 以下の重要な経験的発見から着想を得た, 単純かつ効果的なサンプル選択法を提案する。
論文 参考訳(メタデータ) (2023-08-14T01:24:18Z) - Diverse Data Augmentation with Diffusions for Effective Test-time Prompt
Tuning [73.75282761503581]
DiffTPTを提案する。DiffTPTは,事前学習した拡散モデルを用いて,多種多様な情報データを生成する。
DiffTPTがゼロショット精度を平均5.13%向上することを示す。
論文 参考訳(メタデータ) (2023-08-11T09:36:31Z) - DELTA: degradation-free fully test-time adaptation [59.74287982885375]
テスト時間バッチ正規化(BN)や自己学習といった,一般的な適応手法では,2つの好ましくない欠陥が隠されていることがわかった。
まず、テスト時間BNにおける正規化統計は、現在受信されているテストサンプルに完全に影響され、その結果、不正確な推定結果が得られることを明らかにする。
第二に、テスト時間適応中にパラメータ更新が支配的なクラスに偏っていることを示す。
論文 参考訳(メタデータ) (2023-01-30T15:54:00Z) - Efficient Test-Time Model Adaptation without Forgetting [60.36499845014649]
テストタイム適応は、トレーニングとテストデータの間の潜在的な分散シフトに取り組むことを目指している。
信頼性および非冗長なサンプルを同定するためのアクティブなサンプル選択基準を提案する。
また、重要なモデルパラメータを劇的な変化から制約するFisher regularizerを導入します。
論文 参考訳(メタデータ) (2022-04-06T06:39:40Z) - Training on Test Data with Bayesian Adaptation for Covariate Shift [96.3250517412545]
ディープニューラルネットワークは、信頼できない不確実性推定で不正確な予測を行うことが多い。
分布シフトの下でのラベルなし入力とモデルパラメータとの明確に定義された関係を提供するベイズモデルを導出する。
本手法は精度と不確実性の両方を向上することを示す。
論文 参考訳(メタデータ) (2021-09-27T01:09:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。