論文の概要: SloMo-Fast: Slow-Momentum and Fast-Adaptive Teachers for Source-Free Continual Test-Time Adaptation
- arxiv url: http://arxiv.org/abs/2511.18468v1
- Date: Sun, 23 Nov 2025 14:29:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:24.854224
- Title: SloMo-Fast: Slow-Momentum and Fast-Adaptive Teachers for Source-Free Continual Test-Time Adaptation
- Title(参考訳): SloMo-Fast:ソースフリー連続テスト時間適応のためのスローモーメントと高速適応型教師
- Authors: Md Akil Raihan Iftee, Mir Sazzat Hossain, Rakibul Hasan Rajib, Tariq Iqbal, Md Mofijul Islam, M Ashraful Amin, Amin Ahsan Ali, AKM Mahbubur Rahman,
- Abstract要約: 継続的なテスト時間適応は、目に見えない、進化中のターゲットドメインを持つ現実世界のアプリケーションにモデルをデプロイするために不可欠である。
SloMo-Fastは、適応性と一般化を向上するための、ソースフリーでデュアル教師用CTTAフレームワークである。
また、繰り返しドメインシフトをシミュレートする新しいCTTAベンチマークであるCyclic Test-Time Adaptationを導入する。
- 参考スコア(独自算出の注目度): 8.693493199874831
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Continual Test-Time Adaptation (CTTA) is crucial for deploying models in real-world applications with unseen, evolving target domains. Existing CTTA methods, however, often rely on source data or prototypes, limiting their applicability in privacy-sensitive and resource-constrained settings. Additionally, these methods suffer from long-term forgetting, which degrades performance on previously encountered domains as target domains shift. To address these challenges, we propose SloMo-Fast, a source-free, dual-teacher CTTA framework designed for enhanced adaptability and generalization. It includes two complementary teachers: the Slow-Teacher, which exhibits slow forgetting and retains long-term knowledge of previously encountered domains to ensure robust generalization, and the Fast-Teacher rapidly adapts to new domains while accumulating and integrating knowledge across them. This framework preserves knowledge of past domains and adapts efficiently to new ones. We also introduce Cyclic Test-Time Adaptation (Cyclic-TTA), a novel CTTA benchmark that simulates recurring domain shifts. Our extensive experiments demonstrate that SloMo-Fast consistently outperforms state-of-the-art methods across Cyclic-TTA, as well as ten other CTTA settings, highlighting its ability to both adapt and generalize across evolving and revisited domains.
- Abstract(参考訳): 連続テスト時間適応(CTTA)は、目に見えない、進化するターゲットドメインを持つ現実世界のアプリケーションにモデルをデプロイするために不可欠である。
しかし、既存のCTTAメソッドは、しばしばソースデータやプロトタイプに依存し、プライバシに敏感でリソースに制約のある設定で適用性を制限する。
さらに、これらの手法は長期の忘れ込みに悩まされ、ターゲットドメインがシフトするにつれて、それまで遭遇していたドメインのパフォーマンスが低下する。
これらの課題に対処するため,SloMo-Fastを提案する。
Slow-Teacherは、以前に遭遇したドメインの長期的知識を忘れることと、堅牢な一般化を保証するために保持し、Fast-Teacherは、知識を蓄積し統合しながら、新しいドメインに迅速に適応する。
このフレームワークは過去のドメインの知識を保存し、新しいドメインに効率的に適応する。
また、繰り返しドメインシフトをシミュレートする新しいCTTAベンチマークであるCyclic-TTA(Cyclic Test-Time Adaptation)も導入する。
広範な実験により、SloMo-FastはCyclic-TTAと他の10のCTTA設定で常に最先端のメソッドよりも優れており、進化と再検討されたドメインに適応し、一般化する能力を強調しています。
関連論文リスト
- Learn Faster and Remember More: Balancing Exploration and Exploitation for Continual Test-time Adaptation [42.08969745752455]
連続テスト時間適応(CTTA)は、推論中にターゲットドメインを継続的に変更するソース事前トレーニングモデルを適用することを目的としている。
本稿では,探索と爆発の適切なバランスを打つ平均教師の枠組みを提案する。
論文 参考訳(メタデータ) (2025-08-18T06:08:56Z) - Enhancing Test Time Adaptation with Few-shot Guidance [62.49199492255226]
深層ニューラルネットワークは、トレーニング(ソース)とテスト(ターゲット)データのドメインシフトに直面しながら、大きなパフォーマンス低下に直面することが多い。
TTA(Test Time Adaptation)法は,事前学習したソースモデルを用いて,配信外ストリーミングターゲットデータを処理する手法として提案されている。
本稿では,Few-Shot Test Time Adaptation (FS-TTA) を開発した。
論文 参考訳(メタデータ) (2024-09-02T15:50:48Z) - DPCore: Dynamic Prompt Coreset for Continual Test-Time Adaptation [11.151967974753925]
Continuousal Test-Time Adaptation (CTTA)は、ソーストレーニング済みのモデルを、継続的に変更され、目に見えないターゲットドメインに適応させることを目指している。
DPCoreは、さまざまなドメイン変更パターンをまたいだ堅牢なパフォーマンスを実現するために設計されたメソッドである。
論文 参考訳(メタデータ) (2024-06-15T20:47:38Z) - BECoTTA: Input-dependent Online Blending of Experts for Continual Test-time Adaptation [59.1863462632777]
連続テスト時間適応(CTTA)は、学習済みの知識を維持しながら、継続的に見えない領域に効率的に適応するために必要である。
本稿では,CTTAの入力依存かつ効率的なモジュール化フレームワークであるBECoTTAを提案する。
提案手法は, トレーニング可能なパラメータを98%少なく抑えながら, 整合性や漸進性などの複数のCTTAシナリオに優れることを確認した。
論文 参考訳(メタデータ) (2024-02-13T18:37:53Z) - Multiplicative update rules for accelerating deep learning training and
increasing robustness [69.90473612073767]
我々は、幅広い機械学習アルゴリズムに適合し、代替の更新ルールを適用することができる最適化フレームワークを提案する。
提案するフレームワークはトレーニングを加速する一方、従来の追加更新ルールとは対照的に、より堅牢なモデルにつながります。
論文 参考訳(メタデータ) (2023-07-14T06:44:43Z) - Generalized Few-Shot Continual Learning with Contrastive Mixture of
Adapters [59.82088750033897]
我々は,クラスおよびドメインインクリメンタルな状況を含む汎用FSCL (GFSCL) プロトコルを構築した。
一般的な連続学習手法は、目に見えない領域に一般化能力が乏しいことが判明した。
このようにして、視覚変換器(ViT)に基づくリハーサルフリーフレームワークであるContrastive Mixture of Adapters(CMoA)を提案する。
論文 参考訳(メタデータ) (2023-02-12T15:18:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。