論文の概要: When and Where to Reset Matters for Long-Term Test-Time Adaptation
- arxiv url: http://arxiv.org/abs/2603.03796v1
- Date: Wed, 04 Mar 2026 07:19:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-05 21:29:15.214106
- Title: When and Where to Reset Matters for Long-Term Test-Time Adaptation
- Title(参考訳): 長期的テスト時間適応のためのリセット事項の時期と場所
- Authors: Taejun Lim, Joong-Won Hwang, Kibok Lee,
- Abstract要約: 連続的なテスト時間適応(TTA)は長期にわたって持続し、モデルにエラーが蓄積され、全ての入力に対して少数のクラスしか予測しない。
最近の研究では、これらの蓄積したエラーを完全に消去するリセット戦略が検討されている。
提案手法は,リセットのタイミングと場所を動的に決定し,(2)リセットによって失われる本質的な知識を回復するための重要認識正規化器,(3)ドメインシフトの挑戦による適応性向上のためのオンザフライ適応調整スキームである。
- 参考スコア(独自算出の注目度): 4.470869789416921
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: When continual test-time adaptation (TTA) persists over the long term, errors accumulate in the model and further cause it to predict only a few classes for all inputs, a phenomenon known as model collapse. Recent studies have explored reset strategies that completely erase these accumulated errors. However, their periodic resets lead to suboptimal adaptation, as they occur independently of the actual risk of collapse. Moreover, their full resets cause catastrophic loss of knowledge acquired over time, even though such knowledge could be beneficial in the future. To this end, we propose (1) an Adaptive and Selective Reset (ASR) scheme that dynamically determines when and where to reset, (2) an importance-aware regularizer to recover essential knowledge lost due to reset, and (3) an on-the-fly adaptation adjustment scheme to enhance adaptability under challenging domain shifts. Extensive experiments across long-term TTA benchmarks demonstrate the effectiveness of our approach, particularly under challenging conditions. Our code is available at https://github.com/YonseiML/asr.
- Abstract(参考訳): 長期にわたって連続的なテスト時間適応(TTA)が持続すると、モデルにエラーが蓄積され、さらに全ての入力に対して少数のクラスしか予測されない(モデル崩壊と呼ばれる現象)。
最近の研究では、これらの蓄積したエラーを完全に消去するリセット戦略が検討されている。
しかし、それらの周期的なリセットは、実際の崩壊のリスクとは無関係に起こるため、準最適適応をもたらす。
さらに、それらの完全なリセットは、将来有益であるとしても、時間とともに獲得された知識の破滅的な損失を引き起こす。
この目的のために、(1)リセットのタイミングと場所を動的に決定する適応的・選択的リセット(ASR)スキーム、(2)リセットによって失われた本質的な知識を回復するための重要認識正規化器、(3)ドメインシフトの挑戦による適応性向上のためのオンザフライ適応調整スキームを提案する。
長期TTAベンチマークによる大規模な実験は、特に困難な条件下で、我々のアプローチの有効性を実証している。
私たちのコードはhttps://github.com/YonseiML/asr.comから入手可能です。
関連論文リスト
- Observationally Informed Adaptive Causal Experimental Design [55.998153710215654]
本稿では,観測モデルを基礎的先行として活用する新たなパラダイムであるアクティブ残留学習を提案する。
このアプローチは、実験的な焦点を、目標因果量の学習から、観察バイアスの補正に必要な残差を効率的に推定するへとシフトさせる。
合成および半合成ベンチマークの実験は、R-Designがベースラインを大幅に上回ることを示した。
論文 参考訳(メタデータ) (2026-03-04T06:52:37Z) - Modeling Uncertainty Trends for Timely Retrieval in Dynamic RAG [35.96258615258145]
本稿では,トークンレベルの不確実性のダイナミクスをモデル化し,最適検索タイミングを決定するトレーニングフリーな手法であるEntropy-Trend Constraint(ETC)を紹介する。
ETCは、検索周波数を減少させながら、強いベースラインを一貫して上回る。
プラグアンドプレイで、モデルに依存しず、既存のデコードパイプラインに簡単に統合できる。
論文 参考訳(メタデータ) (2025-11-13T05:28:02Z) - Rediscovering Entropy Regularization: Adaptive Coefficient Unlocks Its Potential for LLM Reinforcement Learning [55.59724323303857]
本稿では,3つのコンポーネントによる探索と利用のバランスをとるフレームワークを提案する。
複数の数学的推論ベンチマークの実験は、AERが一貫してベースラインを上回り、推論精度と探索能力の両方を改善していることを示している。
論文 参考訳(メタデータ) (2025-10-13T03:10:26Z) - SFT Doesn't Always Hurt General Capabilities: Revisiting Domain-Specific Fine-Tuning in LLMs [53.77646961962239]
Supervised Fine-Tuning (SFT) は、大規模言語モデル(LLM)を特殊タスクに適用するための一般的なアプローチである。
より少ない学習率で一般的な性能劣化を著しく軽減することができる。
論文 参考訳(メタデータ) (2025-09-25T05:28:22Z) - Restoring Forgotten Knowledge in Non-Exemplar Class Incremental Learning through Test-Time Semantic Evolution [11.50324946279326]
NECIL(Non-exemplar Class Incremental Learning)では、古いクラスがアクセスできないため、忘れることが発生する。
テスト時セマンティックドリフト補償フレームワークであるRoSEを提案する。
CIFAR-100, TinyImageNet, ImageNet100データセット上のRoSEを, コールドスタートとウォームスタートの両方の設定で評価した。
論文 参考訳(メタデータ) (2025-03-21T02:02:35Z) - Temporal-Difference Variational Continual Learning [77.92320830700797]
複数の先行推定の正則化効果を統合する新たな学習目標を提案する。
提案手法は, 変分CL法より優れたカタストロフィックフォーミングを効果的に緩和する。
論文 参考訳(メタデータ) (2024-10-10T10:58:41Z) - Persistent Test-time Adaptation in Recurring Testing Scenarios [12.024233973321756]
現在のテスト時間適応(TTA)アプローチは、継続的に変化する環境に機械学習モデルを適用することを目的としている。
しかし,TTA法が長期にわたって適応性を維持することができるかどうかは不明である。
本稿では,モデルが崩壊に向かって変動していることを検知し,適応戦略を調整する永続的TTA(PeTTA)を提案する。
論文 参考訳(メタデータ) (2023-11-30T02:24:44Z) - DELTA: degradation-free fully test-time adaptation [59.74287982885375]
テスト時間バッチ正規化(BN)や自己学習といった,一般的な適応手法では,2つの好ましくない欠陥が隠されていることがわかった。
まず、テスト時間BNにおける正規化統計は、現在受信されているテストサンプルに完全に影響され、その結果、不正確な推定結果が得られることを明らかにする。
第二に、テスト時間適応中にパラメータ更新が支配的なクラスに偏っていることを示す。
論文 参考訳(メタデータ) (2023-01-30T15:54:00Z) - Imitating, Fast and Slow: Robust learning from demonstrations via
decision-time planning [96.72185761508668]
テストタイムでの計画(IMPLANT)は、模倣学習のための新しいメタアルゴリズムである。
IMPLANTは,標準制御環境において,ベンチマーク模倣学習手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-04-07T17:16:52Z) - Learning convex regularizers satisfying the variational source condition
for inverse problems [4.2917182054051]
本稿では,データ駆動型凸正則化学習のための対向凸正則化(ACR)を提案する。
我々は,学習中の変動源条件(SC)を利用して,学習した凸正規化器に対応する変動損失を最小限に抑える。
結果として得られる正則化器 (ACR-SC) は、ACRと同等に動作するが、ACRとは異なり、定量的収束率の推定が伴う。
論文 参考訳(メタデータ) (2021-10-24T20:05:59Z) - Temporal Variability in Implicit Online Learning [15.974402990630402]
最強の後悔分析は、オンラインミラー・ダイスンよりも限界的な改善しか示さない。
損失関数列の時間的変動に依存する新しい静的な後悔境界を証明した。
本稿では、時間的変動の事前知識を必要とせずに、この後悔を抑える適応アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-12T22:50:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。