論文の概要: Test-time Correlation Alignment
- arxiv url: http://arxiv.org/abs/2505.00533v1
- Date: Thu, 01 May 2025 13:59:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:55.318304
- Title: Test-time Correlation Alignment
- Title(参考訳): テスト時間相関アライメント
- Authors: Linjing You, Jiabao Lu, Xiayuan Huang,
- Abstract要約: ディープニューラルネットワークは、トレーニングとテストデータの分散シフトによるパフォーマンス低下を経験することが多い。
プライバシーに関する懸念は、多くの現実世界のシナリオにおけるトレーニングデータへのアクセスを制限する。
テスト時間適応(TTA)は、ラベルのないテストデータのみを使用してモデルを適応させる。
- 参考スコア(独自算出の注目度): 2.389598109913754
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks often experience performance drops due to distribution shifts between training and test data. Although domain adaptation offers a solution, privacy concerns restrict access to training data in many real-world scenarios. This restriction has spurred interest in Test-Time Adaptation (TTA), which adapts models using only unlabeled test data. However, current TTA methods still face practical challenges: (1) a primary focus on instance-wise alignment, overlooking CORrelation ALignment (CORAL) due to missing source correlations; (2) complex backpropagation operations for model updating, resulting in overhead computation and (3) domain forgetting. To address these challenges, we provide a theoretical analysis to investigate the feasibility of Test-time Correlation Alignment (TCA), demonstrating that correlation alignment between high-certainty instances and test instances can enhance test performances with a theoretical guarantee. Based on this, we propose two simple yet effective algorithms: LinearTCA and LinearTCA+. LinearTCA applies a simple linear transformation to achieve both instance and correlation alignment without additional model updates, while LinearTCA+ serves as a plug-and-play module that can easily boost existing TTA methods. Extensive experiments validate our theoretical insights and show that TCA methods significantly outperforms baselines across various tasks, benchmarks and backbones. Notably, LinearTCA improves adaptation accuracy by 5.88% on OfficeHome dataset, while using only 4% maximum GPU memory usage and 0.6% computation time compared to the best baseline TTA method.
- Abstract(参考訳): ディープニューラルネットワークは、トレーニングとテストデータの分散シフトによるパフォーマンス低下を経験することが多い。
ドメイン適応はソリューションを提供するが、プライバシの懸念は、多くの実世界のシナリオにおけるトレーニングデータへのアクセスを制限する。
この制限は、未ラベルのテストデータのみを使用してモデルを適応させるテスト時間適応(TTA)への関心を喚起した。
しかし、現在のTTA手法は、(1)ソース相関の欠如によるコリレーションアライメント(CORAL)を見渡すこと、(2)モデル更新のための複雑なバックプロパゲーション操作、(3)オーバヘッド計算、(3)ドメインの忘れなど、現実的な課題に直面している。
これらの課題に対処するため,テスト時間相関アライメント(TCA)の実現可能性について理論的解析を行い,信頼性の高いインスタンスとテストインスタンスとの相関関係が理論的保証でテスト性能を向上させることを実証した。
そこで本研究では,LinearTCAとLinearTCA+の2つの単純なアルゴリズムを提案する。
LinearTCA+は既存のTTAメソッドを簡単に強化できるプラグイン・アンド・プレイモジュールとして機能する。
大規模な実験により、我々の理論的な洞察を検証し、TCA手法が様々なタスク、ベンチマーク、バックボーンでベースラインを大幅に上回っていることを示す。
特に、LinearTCAはOfficeHomeデータセットの適応精度を5.88%改善し、最高のベースラインTTA手法と比較して、最大で4%のGPUメモリ使用量と0.6%の計算時間しか使用していない。
関連論文リスト
- Neutralizing Token Aggregation via Information Augmentation for Efficient Test-Time Adaptation [59.1067331268383]
TTA(Test-Time Adaptation)は、視覚変換器(ViT)を追加のトレーニングデータなしで分散シフトに適応するための有効なソリューションとして登場した。
推論コストを削減するために、プラグイン・アンド・プレイのトークン・アグリゲーション手法はViTに冗長なトークンをマージし、全処理されたトークンを減らす。
我々はこの問題をETTA(Efficient Test-Time Adaptation)として定式化し、推論遅延を低減しつつTTAの適応性を維持する。
論文 参考訳(メタデータ) (2025-08-05T12:40:55Z) - The Illusion of Progress? A Critical Look at Test-Time Adaptation for Vision-Language Models [120.42853706967188]
TTA-VLMは、視覚言語モデル上でのTTA手法を評価するための総合的なベンチマークである。
筆者らのベンチマークでは, 統合的かつ再現可能なフレームワーク内に8つのエピソードTTAと7つのオンラインTTAメソッドを実装した。
我々は、SigLIP(Sigmoid Lossで訓練されたモデル)の評価を拡張し、一般性を評価するためのCoOp、MaPLe、TeCoAなどの訓練時間チューニング手法を含む。
論文 参考訳(メタデータ) (2025-06-30T16:05:55Z) - IT$^3$: Idempotent Test-Time Training [95.78053599609044]
ディープラーニングモデルは、トレーニングデータとテストデータの間の分散シフトのために、現実世界の環境にデプロイする際に苦労することが多い。
Idempotent Test-Time Training (IT$3$) は、現在のテストインスタンスのみを使用して、分散シフトへのオンザフライ適応を可能にする新しいアプローチである。
この結果から,イデオポテンスはドメインやアーキテクチャをまたいで一般化するテスト時間適応の普遍的原理を提供すると考えられる。
論文 参考訳(メタデータ) (2024-10-05T15:39:51Z) - Active Test-Time Adaptation: Theoretical Analyses and An Algorithm [51.84691955495693]
テスト時間適応(TTA)は、教師なし設定でストリーミングテストデータの分散シフトに対処する。
完全TTA設定内に能動学習を統合する能動テスト時間適応(ATTA)の新たな問題設定を提案する。
論文 参考訳(メタデータ) (2024-04-07T22:31:34Z) - Few Clicks Suffice: Active Test-Time Adaptation for Semantic
Segmentation [14.112999441288615]
テスト時間適応(TTA)は、未ラベルのテストデータを使用した推論中に事前訓練されたモデルに適応する。
TTAアプローチと教師付きアプローチの間には,依然として大きなパフォーマンスギャップがあります。
本稿では,モデルアダプタとラベルアノテータの2つの部分からなるATASegフレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-04T12:16:02Z) - AR-TTA: A Simple Method for Real-World Continual Test-Time Adaptation [1.4530711901349282]
本稿では,自律運転のためのデータセット,すなわちCLAD-CとShiFTを用いたテスト時間適応手法の検証を提案する。
現在のテスト時間適応手法は、ドメインシフトの様々な程度を効果的に扱うのに苦労している。
モデル安定性を高めるために、小さなメモリバッファを組み込むことで、確立された自己学習フレームワークを強化する。
論文 参考訳(メタデータ) (2023-09-18T19:34:23Z) - Benchmarking Test-Time Adaptation against Distribution Shifts in Image
Classification [77.0114672086012]
テスト時間適応(TTA)は、予測時にのみラベルのないサンプルを活用することにより、モデルの一般化性能を向上させる技術である。
本稿では,広く使用されている5つの画像分類データセット上で,13のTTA手法とその変種を体系的に評価するベンチマークを提案する。
論文 参考訳(メタデータ) (2023-07-06T16:59:53Z) - Improved Test-Time Adaptation for Domain Generalization [48.239665441875374]
テストタイムトレーニング(TTT)は、学習したモデルにテストデータを適用する。
この作業は2つの主な要因に対処する: テストフェーズ中にアップデートする信頼性のあるパラメータを更新および識別するための適切な補助的TTTタスクを選択する。
トレーニングされたモデルに適応パラメータを追加し、テストフェーズでのみ適応パラメータを更新することを提案する。
論文 参考訳(メタデータ) (2023-04-10T10:12:38Z) - A Comprehensive Survey on Test-Time Adaptation under Distribution Shifts [117.72709110877939]
テスト時間適応(TTA)は、事前訓練されたモデルをテスト中に、予測する前にラベルのないデータに適応する可能性がある。
TTAはテスト時間領域適応、テスト時間バッチ適応、オンラインテスト時間適応といったテストデータの形態に基づいて、いくつかの異なるグループに分類される。
論文 参考訳(メタデータ) (2023-03-27T16:32:21Z) - Robust Continual Test-time Adaptation: Instance-aware BN and
Prediction-balanced Memory [58.72445309519892]
テストデータストリーム以外のデータストリームに対して堅牢な新しいテスト時間適応方式を提案する。
a)分布外サンプルの正規化を修正するIABN(Instance-Aware Batch Normalization)と、(b)クラスバランスのない方法で非i.d.ストリームからのデータストリームをシミュレートするPBRS(Predict- Balanced Reservoir Sampling)である。
論文 参考訳(メタデータ) (2022-08-10T03:05:46Z) - CAFA: Class-Aware Feature Alignment for Test-Time Adaptation [50.26963784271912]
テスト時間適応(TTA)は、テスト時にラベルのないデータにモデルを適応させることによって、この問題に対処することを目的としている。
本稿では,クラス認識特徴アライメント(CAFA, Class-Aware Feature Alignment)と呼ばれる単純な機能アライメント損失を提案する。
論文 参考訳(メタデータ) (2022-06-01T03:02:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。