論文の概要: Learn Faster and Remember More: Balancing Exploration and Exploitation for Continual Test-time Adaptation
- arxiv url: http://arxiv.org/abs/2508.12643v1
- Date: Mon, 18 Aug 2025 06:08:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-19 14:49:10.984099
- Title: Learn Faster and Remember More: Balancing Exploration and Exploitation for Continual Test-time Adaptation
- Title(参考訳): より速く、より多くを学ぶ - 継続的なテスト時間適応のための探索と爆発のバランスをとる
- Authors: Pinci Yang, Peisong Wen, Ke Ma, Qianqian Xu,
- Abstract要約: 連続テスト時間適応(CTTA)は、推論中にターゲットドメインを継続的に変更するソース事前トレーニングモデルを適用することを目的としている。
本稿では,探索と爆発の適切なバランスを打つ平均教師の枠組みを提案する。
- 参考スコア(独自算出の注目度): 42.08969745752455
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Continual Test-Time Adaptation (CTTA) aims to adapt a source pre-trained model to continually changing target domains during inference. As a fundamental principle, an ideal CTTA method should rapidly adapt to new domains (exploration) while retaining and exploiting knowledge from previously encountered domains to handle similar domains in the future. Despite significant advances, balancing exploration and exploitation in CTTA is still challenging: 1) Existing methods focus on adjusting predictions based on deep-layer outputs of neural networks. However, domain shifts typically affect shallow features, which are inefficient to be adjusted from deep predictions, leading to dilatory exploration; 2) A single model inevitably forgets knowledge of previous domains during the exploration, making it incapable of exploiting historical knowledge to handle similar future domains. To address these challenges, this paper proposes a mean teacher framework that strikes an appropriate Balance between Exploration and Exploitation (BEE) during the CTTA process. For the former challenge, we introduce a Multi-level Consistency Regularization (MCR) loss that aligns the intermediate features of the student and teacher models, accelerating adaptation to the current domain. For the latter challenge, we employ a Complementary Anchor Replay (CAR) mechanism to reuse historical checkpoints (anchors), recovering complementary knowledge for diverse domains. Experiments show that our method significantly outperforms state-of-the-art methods on several benchmarks, demonstrating its effectiveness for CTTA tasks.
- Abstract(参考訳): 連続テスト時間適応(CTTA)は、推論中にターゲットドメインを継続的に変更するソース事前トレーニングモデルを適用することを目的としている。
基本原理として、理想的なCTTA法は、将来、類似ドメインを扱うために、それまで遭遇したドメインからの知識を保持し、活用しながら、新しいドメイン(探索)に迅速に適応するべきである。
大幅な進歩にもかかわらず、CTTAにおける探索と利用のバランスは依然として難しい。
1)既存手法はニューラルネットワークの深層出力に基づく予測の調整に重点を置いている。
しかし、ドメインシフトは一般的に浅い特徴に影響を与え、深い予測から非効率に調整され、希薄な探索につながる。
2 単一のモデルでは、探索中の過去のドメインの知識を必然的に忘れ、同様の将来ドメインを扱うために歴史的な知識を活用できなくなる。
このような課題に対処するために,CTTAプロセス中に探索と爆発のバランス(BEE)を適切に調整する平均教師フレームワークを提案する。
従来の課題に対して,学生モデルと教師モデルの中間的特徴を整合させるマルチレベル一貫性規則化(MCR)の損失を導入し,現在の領域への適応を加速する。
後者の課題では、過去のチェックポイント(アンカー)を再利用するために補足アンカー・リプレイ(CAR)機構を使用し、多様なドメインの補完的知識を回復する。
実験により,本手法はCTTAタスクの有効性を実証し,いくつかのベンチマークにおいて最先端の手法よりも優れた性能を示した。
関連論文リスト
- Addressing Imbalanced Domain-Incremental Learning through Dual-Balance Collaborative Experts [59.615381619866284]
ドメイン・インクリメンタル・ラーニング(Domain-Incremental Learning, DIL)は、非定常環境における連続的な学習に焦点を当てる。
DILは、ドメイン内のクラス不均衡とドメイン間のクラス分散シフトという、2つの重要な課題に直面している。
これらの課題を克服するために、Dual-Balance Collaborative Experts (DCE)フレームワークを紹介します。
論文 参考訳(メタデータ) (2025-07-09T17:57:07Z) - Orthogonal Projection Subspace to Aggregate Online Prior-knowledge for Continual Test-time Adaptation [67.80294336559574]
連続テスト時間適応(CTTA)は、新しいシナリオに継続的に適応するために、ソース事前訓練されたモデルを必要とするタスクである。
我々は、OoPkと呼ばれるオンライン事前知識を集約する新しいパイプラインOrthogonal Projection Subspaceを提案する。
論文 参考訳(メタデータ) (2025-06-23T18:17:39Z) - Understanding the Cross-Domain Capabilities of Video-Based Few-Shot Action Recognition Models [3.072340427031969]
Few-shot Action Recognition (FSAR) は、ビデオ中の新しいアクションをわずかに例を使って識別できるモデルを学ぶことを目的としている。
メタトレーニング中に見られるベースデータセットと評価に使用される新しいデータセットは、異なるドメインから得ることができると仮定すると、クロスドメインの少数ショット学習によってデータ収集とアノテーションコストが軽減される。
我々は、新しいクロスドメインタスクに対して、既存の最先端の単一ドメイン、転送ベース、およびクロスドメインFSARメソッドを体系的に評価する。
論文 参考訳(メタデータ) (2024-06-03T07:48:18Z) - Overcoming Domain Drift in Online Continual Learning [24.86094018430407]
オンライン連続学習(OCL)は、機械学習モデルに一連のタスクで新しい知識をオンラインで取得する権限を与える。
OCLは、破滅的な忘れをし、以前のタスクで学んだモデルは、新しいタスクに遭遇したときに実質的に上書きされる、という大きな課題に直面します。
本稿では,古いタスクのドメインを固定し,負の転送効果を低減するための新しいリハーサル戦略であるDrift-Reducing Rehearsal(DRR)を提案する。
論文 参考訳(メタデータ) (2024-05-15T06:57:18Z) - Towards Robust Continual Learning with Bayesian Adaptive Moment Regularization [51.34904967046097]
継続的な学習は、モデルが以前に学習した情報を忘れてしまう破滅的な忘れ込みの課題を克服しようとする。
本稿では,パラメータ成長の制約を緩和し,破滅的な忘れを減らし,新しい事前手法を提案する。
以上の結果から, BAdamは, 単頭クラスインクリメンタル実験に挑戦する先行手法に対して, 最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-09-15T17:10:51Z) - ViDA: Homeostatic Visual Domain Adapter for Continual Test Time Adaptation [48.039156140237615]
目標ドメインの継続的な変更に事前訓練されたモデルを適用するために、連続的なテスト時間適応タスクを提案する。
我々はCTTA用のVisual Domain Adapter (ViDA) を設計し、ドメイン固有知識とドメイン共有知識の両方を明示的に扱う。
提案手法は,CTTAタスクの分類とセグメント化の両方において,最先端の性能を実現する。
論文 参考訳(メタデータ) (2023-06-07T11:18:53Z) - Unsupervised Transfer Learning for Spatiotemporal Predictive Networks [90.67309545798224]
我々は、教師なし学習されたモデルの動物園から別のネットワークへ知識を伝達する方法を研究する。
私たちのモチベーションは、モデルは異なるソースからの複雑なダイナミクスを理解することが期待されていることです。
提案手法は,時間的予測のための3つのベンチマークで大幅に改善され,重要度が低いベンチマークであっても,ターゲットのメリットが得られた。
論文 参考訳(メタデータ) (2020-09-24T15:40:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。