論文の概要: Buffer layers for Test-Time Adaptation
- arxiv url: http://arxiv.org/abs/2510.21271v2
- Date: Thu, 30 Oct 2025 05:16:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-31 13:50:54.707496
- Title: Buffer layers for Test-Time Adaptation
- Title(参考訳): テスト時間適応のためのバッファ層
- Authors: Hyeongyu Kim, Geonhui Han, Dosik Hwang,
- Abstract要約: バッファ層の概念に基づく新しいパラダイムを導入し,正規化レイヤ更新の基本的限界に対処する。
私たちのアプローチは、ドメインシフトを緩和し、モデルロバスト性を向上する従来の手法よりも優れているだけでなく、忘れることに対する強いレジリエンスも示しています。
- 参考スコア(独自算出の注目度): 6.119587600205796
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent advancements in Test Time Adaptation (TTA), most existing methodologies focus on updating normalization layers to adapt to the test domain. However, the reliance on normalization-based adaptation presents key challenges. First, normalization layers such as Batch Normalization (BN) are highly sensitive to small batch sizes, leading to unstable and inaccurate statistics. Moreover, normalization-based adaptation is inherently constrained by the structure of the pre-trained model, as it relies on training-time statistics that may not generalize well to unseen domains. These issues limit the effectiveness of normalization-based TTA approaches, especially under significant domain shift. In this paper, we introduce a novel paradigm based on the concept of a Buffer layer, which addresses the fundamental limitations of normalization layer updates. Unlike existing methods that modify the core parameters of the model, our approach preserves the integrity of the pre-trained backbone, inherently mitigating the risk of catastrophic forgetting during online adaptation. Through comprehensive experimentation, we demonstrate that our approach not only outperforms traditional methods in mitigating domain shift and enhancing model robustness, but also exhibits strong resilience to forgetting. Furthermore, our Buffer layer is modular and can be seamlessly integrated into nearly all existing TTA frameworks, resulting in consistent performance improvements across various architectures. These findings validate the effectiveness and versatility of the proposed solution in real-world domain adaptation scenarios. The code is available at https://github.com/hyeongyu-kim/Buffer_TTA.
- Abstract(参考訳): テスト時間適応(TTA)の最近の進歩の中で、既存の方法論のほとんどは、テストドメインに適応する正規化レイヤの更新に重点を置いている。
しかし、正規化に基づく適応への依存は重要な課題である。
第一に、バッチ正規化(BN)のような正規化層は、小さなバッチサイズに非常に敏感であり、不安定で不正確な統計をもたらす。
さらに、正規化に基づく適応は、未確認領域にうまく一般化できない訓練時間統計に依存するため、事前訓練されたモデルの構造によって本質的に制約される。
これらの問題は、特に大きなドメインシフトの下で、正規化に基づくTTAアプローチの有効性を制限する。
本稿では,正規化レイヤ更新の基本的限界に対処するバッファ層の概念に基づく新しいパラダイムを提案する。
モデルの中核パラメータを変更する既存の方法とは異なり、本手法はトレーニング済みのバックボーンの整合性を保ち、本質的にはオンライン適応中の破滅的な忘れ込みのリスクを軽減する。
包括的な実験を通じて、我々のアプローチはドメインシフトを緩和し、モデルロバスト性を高める従来の手法よりも優れているだけでなく、忘れることに対する強いレジリエンスも示している。
さらに、私たちのBufferレイヤはモジュール化されており、ほとんどすべての既存のTTAフレームワークにシームレスに統合することができます。
これらの結果から,実世界のドメイン適応シナリオにおける提案手法の有効性と妥当性が検証された。
コードはhttps://github.com/hyeongyu-kim/Buffer_TTAで公開されている。
関連論文リスト
- Orthogonal Projection Subspace to Aggregate Online Prior-knowledge for Continual Test-time Adaptation [67.80294336559574]
連続テスト時間適応(CTTA)は、新しいシナリオに継続的に適応するために、ソース事前訓練されたモデルを必要とするタスクである。
我々は、OoPkと呼ばれるオンライン事前知識を集約する新しいパイプラインOrthogonal Projection Subspaceを提案する。
論文 参考訳(メタデータ) (2025-06-23T18:17:39Z) - ReservoirTTA: Prolonged Test-time Adaptation for Evolving and Recurring Domains [25.075869018443925]
ReservoirTTAは、長期間のテスト時間適応のために設計された新しいプラグインフレームワークである。
中心となるReservoirTTAはドメイン特化モデルの貯水池を維持している。
理論的解析により,パラメータの分散を束縛し,モデル崩壊を防ぐ重要な要素が明らかになった。
論文 参考訳(メタデータ) (2025-05-20T15:39:20Z) - Enhancing Test Time Adaptation with Few-shot Guidance [62.49199492255226]
深層ニューラルネットワークは、トレーニング(ソース)とテスト(ターゲット)データのドメインシフトに直面しながら、大きなパフォーマンス低下に直面することが多い。
TTA(Test Time Adaptation)法は,事前学習したソースモデルを用いて,配信外ストリーミングターゲットデータを処理する手法として提案されている。
本稿では,Few-Shot Test Time Adaptation (FS-TTA) を開発した。
論文 参考訳(メタデータ) (2024-09-02T15:50:48Z) - A Layer Selection Approach to Test Time Adaptation [0.2968738145616401]
テスト時間適応(TTA)は、推論中に事前訓練されたモデルを新しいドメインに適応させることによって、分散シフトの問題に対処する。
提案するGALAは,TTA中に最も有益な更新を行うための新しいレイヤ選択基準である。
論文 参考訳(メタデータ) (2024-04-04T19:55:11Z) - Towards Continual Learning Desiderata via HSIC-Bottleneck
Orthogonalization and Equiangular Embedding [55.107555305760954]
本稿では,レイヤワイドパラメータのオーバーライトや決定境界の歪みに起因する,概念的にシンプルで効果的な手法を提案する。
提案手法は,ゼロの指数バッファと1.02倍の差が絶対的に優れていても,競争精度が向上する。
論文 参考訳(メタデータ) (2024-01-17T09:01:29Z) - Towards Real-World Test-Time Adaptation: Tri-Net Self-Training with Balanced Normalization [46.30241353155658]
既存の研究は、非I.d.データストリームと連続的なドメインシフトの下での実際のテスト時間適応を主に検討している。
我々は、最先端の手法の失敗は、まず不均衡なテストデータに正規化層を無差別に適応させることによって生じると論じる。
TRIBEと呼ばれる最後のTTAモデルは、バランスの取れたバッチノーム層を持つトリネットアーキテクチャ上に構築されている。
論文 参考訳(メタデータ) (2023-09-26T14:06:26Z) - AR-TTA: A Simple Method for Real-World Continual Test-Time Adaptation [1.4530711901349282]
本稿では,自律運転のためのデータセット,すなわちCLAD-CとShiFTを用いたテスト時間適応手法の検証を提案する。
現在のテスト時間適応手法は、ドメインシフトの様々な程度を効果的に扱うのに苦労している。
モデル安定性を高めるために、小さなメモリバッファを組み込むことで、確立された自己学習フレームワークを強化する。
論文 参考訳(メタデータ) (2023-09-18T19:34:23Z) - Test-time Batch Statistics Calibration for Covariate Shift [66.7044675981449]
我々は,推論中に深層モデルを新しい環境に適応させることを提案する。
バッチ統計の校正に$alpha$-BNの一般的な定式化を提案する。
また、統合テスト時間適応フレームワークCoreを形成するための新しい損失関数も提示する。
論文 参考訳(メタデータ) (2021-10-06T08:45:03Z) - Adaptive Risk Minimization: Learning to Adapt to Domain Shift [109.87561509436016]
ほとんどの機械学習アルゴリズムの基本的な前提は、トレーニングとテストデータは、同じ基礎となる分布から引き出されることである。
本研究では,学習データをドメインに構造化し,複数のテスト時間シフトが存在する場合の領域一般化の問題点について考察する。
本稿では、適応リスク最小化(ARM)の枠組みを紹介し、モデルがトレーニング領域に適応することを学ぶことで、効果的な適応のために直接最適化される。
論文 参考訳(メタデータ) (2020-07-06T17:59:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。