論文の概要: Label Distribution Shift-Aware Prediction Refinement for Test-Time Adaptation
- arxiv url: http://arxiv.org/abs/2411.15204v1
- Date: Wed, 20 Nov 2024 05:58:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-26 14:24:34.067460
- Title: Label Distribution Shift-Aware Prediction Refinement for Test-Time Adaptation
- Title(参考訳): 実験時間適応のためのラベル分布シフト対応予測補正
- Authors: Minguk Jang, Hye Won Chung,
- Abstract要約: テスト時間適応(DART)のためのラベル分散シフト予測の改良について紹介する。
DARTは、クラスワイドの混乱パターンに着目して予測を洗練する新しいTTA手法である。
CIFAR-10Cではラベル分布シフトがない場合,CIFAR-10Cでは精度が5-18%向上する。
- 参考スコア(独自算出の注目度): 12.231303059518229
- License:
- Abstract: Test-time adaptation (TTA) is an effective approach to mitigate performance degradation of trained models when encountering input distribution shifts at test time. However, existing TTA methods often suffer significant performance drops when facing additional class distribution shifts. We first analyze TTA methods under label distribution shifts and identify the presence of class-wise confusion patterns commonly observed across different covariate shifts. Based on this observation, we introduce label Distribution shift-Aware prediction Refinement for Test-time adaptation (DART), a novel TTA method that refines the predictions by focusing on class-wise confusion patterns. DART trains a prediction refinement module during an intermediate time by exposing it to several batches with diverse class distributions using the training dataset. This module is then used during test time to detect and correct class distribution shifts, significantly improving pseudo-label accuracy for test data. Our method exhibits 5-18% gains in accuracy under label distribution shifts on CIFAR-10C, without any performance degradation when there is no label distribution shift. Extensive experiments on CIFAR, PACS, OfficeHome, and ImageNet benchmarks demonstrate DART's ability to correct inaccurate predictions caused by test-time distribution shifts. This improvement leads to enhanced performance in existing TTA methods, making DART a valuable plug-in tool.
- Abstract(参考訳): テスト時間適応(TTA)は、テスト時に入力分布シフトに遭遇する際の訓練されたモデルの性能劣化を軽減する効果的なアプローチである。
しかしながら、既存のTTAメソッドは、追加のクラス分散シフトに直面した場合、大きなパフォーマンス低下を被ることが多い。
まず,ラベル分布シフトの下でTTA法を解析し,異なる共変量シフトでよく見られるクラスワイド・混乱パターンの存在を同定する。
そこで本研究では,クラスワイド・混乱パターンに着目して予測を洗練させる新しいTTA手法であるDARTについて,ラベル分散シフト・アウェア・アウェア・アダプティブ・リファインメントを提案する。
DARTは、トレーニングデータセットを使用して、さまざまなクラス分布を持つ複数のバッチに公開することにより、中間時間に予測リファインメントモジュールをトレーニングする。
このモジュールはテスト時間中にクラス分散シフトの検出と修正に使用され、テストデータの擬似ラベル精度が大幅に向上する。
CIFAR-10Cではラベル分布シフトがない場合,CIFAR-10Cでは精度が5-18%向上する。
CIFAR、PACS、OfficeHome、ImageNetベンチマークに関する大規模な実験は、テスト時間分布シフトに起因する不正確な予測を修正するDARTの能力を実証している。
この改善により、既存のTTAメソッドのパフォーマンスが向上し、DARTは貴重なプラグインツールになる。
関連論文リスト
- DOTA: Distributional Test-Time Adaptation of Vision-Language Models [52.98590762456236]
トレーニングフリーテスト時動的アダプタ(TDA)は、この問題に対処するための有望なアプローチである。
単体テスト時間適応法(Dota)の簡易かつ効果的な方法を提案する。
Dotaは継続的にテストサンプルの分布を推定し、モデルがデプロイメント環境に継続的に適応できるようにします。
論文 参考訳(メタデータ) (2024-09-28T15:03:28Z) - Temporal Test-Time Adaptation with State-Space Models [4.248760709042802]
テストサンプルにモデルを適用することは、パフォーマンスの低下を軽減するのに役立ちます。
ほとんどの試験時間適応法は、合成汚職シフトに重点を置いている。
本稿では,時相分布シフトに対応する確率的状態空間モデルSTADを提案する。
論文 参考訳(メタデータ) (2024-07-17T11:18:49Z) - AdapTable: Test-Time Adaptation for Tabular Data via Shift-Aware Uncertainty Calibrator and Label Distribution Handler [29.395855812763617]
我々は、ソースデータにアクセスすることなく、ターゲットデータに機械学習モデルを適用するためのフレームワークであるAdapTableを提案する。
AdapTableは、(1)シフト認識不確実性校正器を用いてモデル予測を校正し、2)ターゲットラベル分布とラベル分布ハンドラとを一致させるようにこれらの予測を調整する。
我々の結果は、AdapTableが様々な現実世界の分散シフトを処理できることを示し、データセットで最大16%の改善を実現した。
論文 参考訳(メタデータ) (2024-07-15T15:02:53Z) - Uncertainty-Calibrated Test-Time Model Adaptation without Forgetting [55.17761802332469]
テスト時間適応(TTA)は、与えられたモデルw.r.t.を任意のテストサンプルに適用することにより、トレーニングデータとテストデータの間の潜在的な分散シフトに取り組むことを目指している。
事前の手法は各テストサンプルに対してバックプロパゲーションを実行するため、多くのアプリケーションに対して許容できない最適化コストがかかる。
本稿では, 有効サンプル選択基準を策定し, 信頼性および非冗長なサンプルを同定する, 効率的なアンチフォッティングテスト時間適応法を提案する。
論文 参考訳(メタデータ) (2024-03-18T05:49:45Z) - Channel-Selective Normalization for Label-Shift Robust Test-Time Adaptation [16.657929958093824]
テスト時間適応は、推論中にモデルを新しいデータ分布に調整するアプローチである。
テスト時のバッチ正規化は、ドメインシフトベンチマークで魅力的なパフォーマンスを達成した、シンプルで一般的な方法である。
本稿では、ディープネットワークにおけるチャネルのみを選択的に適応させ、ラベルシフトに敏感な劇的な適応を最小化することで、この問題に対処することを提案する。
論文 参考訳(メタデータ) (2024-02-07T15:41:01Z) - Label Shift Adapter for Test-Time Adaptation under Covariate and Label
Shifts [48.83127071288469]
テスト時間適応(TTA)は、推論中にバッチ・バイ・バッチ方式で、事前訓練されたモデルをターゲットドメインに適応することを目的としている。
これまでのほとんどのTTAアプローチは、ソースとターゲットのドメインのデータセットがバランスの取れたラベルの分布を持っていると仮定している。
本稿では,ラベルシフトを効果的に扱うために,既存のTTAアプローチに組み込む新しいラベルシフトアダプタを提案する。
論文 参考訳(メタデータ) (2023-08-17T06:37:37Z) - TeST: Test-time Self-Training under Distribution Shift [99.68465267994783]
Test-Time Self-Training (TeST)は、あるソースデータとテスト時の新しいデータ分散に基づいてトレーニングされたモデルを入力する技術である。
また,TeSTを用いたモデルでは,ベースラインテスト時間適応アルゴリズムよりも大幅に改善されていることがわかった。
論文 参考訳(メタデータ) (2022-09-23T07:47:33Z) - CAFA: Class-Aware Feature Alignment for Test-Time Adaptation [50.26963784271912]
テスト時間適応(TTA)は、テスト時にラベルのないデータにモデルを適応させることによって、この問題に対処することを目的としている。
本稿では,クラス認識特徴アライメント(CAFA, Class-Aware Feature Alignment)と呼ばれる単純な機能アライメント損失を提案する。
論文 参考訳(メタデータ) (2022-06-01T03:02:07Z) - Training on Test Data with Bayesian Adaptation for Covariate Shift [96.3250517412545]
ディープニューラルネットワークは、信頼できない不確実性推定で不正確な予測を行うことが多い。
分布シフトの下でのラベルなし入力とモデルパラメータとの明確に定義された関係を提供するベイズモデルを導出する。
本手法は精度と不確実性の両方を向上することを示す。
論文 参考訳(メタデータ) (2021-09-27T01:09:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。