論文の概要: DiCoTTA: Domain-invariant Learning for Continual Test-time Adaptation
- arxiv url: http://arxiv.org/abs/2504.04981v1
- Date: Mon, 07 Apr 2025 12:09:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-08 14:14:30.121558
- Title: DiCoTTA: Domain-invariant Learning for Continual Test-time Adaptation
- Title(参考訳): DiCoTTA: 連続的なテスト時間適応のためのドメイン不変学習
- Authors: Sohyun Lee, Nayeong Kim, Juwon Kang, Seong Joon Oh, Suha Kwak,
- Abstract要約: 連続テスト時間適応(CTTA)のための新しいオンラインドメイン不変学習フレームワークを提案する。
そこで本研究では,意味内容を損なうことなく,ドメイン不変の特徴を学習するための新しいモデルアーキテクチャとテスト時間適応戦略を提案する。
DiCoTTAは4つのパブリックCTTAベンチマークで最先端のパフォーマンスを達成した。
- 参考スコア(独自算出の注目度): 39.7909410173315
- License:
- Abstract: This paper studies continual test-time adaptation (CTTA), the task of adapting a model to constantly changing unseen domains in testing while preserving previously learned knowledge. Existing CTTA methods mostly focus on adaptation to the current test domain only, overlooking generalization to arbitrary test domains a model may face in the future. To tackle this limitation, we present a novel online domain-invariant learning framework for CTTA, dubbed DiCoTTA. DiCoTTA aims to learn feature representation to be invariant to both current and previous test domains on the fly during testing. To this end, we propose a new model architecture and a test-time adaptation strategy dedicated to learning domain-invariant features without corrupting semantic contents, along with a new data structure and optimization algorithm for effectively managing information from previous test domains. DiCoTTA achieved state-of-the-art performance on four public CTTA benchmarks. Moreover, it showed superior generalization to unseen test domains.
- Abstract(参考訳): 本稿では,従来学習されていた知識を保ちながら,未確認領域を常に変化させるモデルをCTTA(Continuous Test-Time Adaption)に適用する作業について検討する。
既存のCTTA法は主に現在のテスト領域への適応に焦点を合わせており、将来モデルが直面する可能性のある任意のテスト領域への一般化を見越している。
この制限に対処するために,我々は,新しいオンラインドメイン不変学習フレームワークであるDiCoTTAを提案する。
DiCoTTAは、テスト中に現在のテストドメインと以前のテストドメインの両方に不変である機能表現を学ぶことを目的としている。
そこで本研究では,意味的内容を損なうことなくドメイン不変な特徴を学習するための新しいモデルアーキテクチャとテスト時適応戦略と,テスト領域からの情報を効果的に管理する新しいデータ構造と最適化アルゴリズムを提案する。
DiCoTTAは4つのパブリックCTTAベンチマークで最先端のパフォーマンスを達成した。
さらに、未確認テスト領域に優れた一般化を示した。
関連論文リスト
- Boosting Large Language Models with Continual Learning for Aspect-based Sentiment Analysis [33.86086075084374]
アスペクトベース感情分析(ABSA)は感情分析の重要なサブタスクである。
ABSAのための大規模言語モデルに基づく連続学習(textttLLM-CL)モデルを提案する。
論文 参考訳(メタデータ) (2024-05-09T02:00:07Z) - What, How, and When Should Object Detectors Update in Continually
Changing Test Domains? [34.13756022890991]
テストデータを推測しながらモデルをオンラインに適応させるテスト時適応アルゴリズムが提案されている。
連続的に変化するテスト領域におけるオブジェクト検出のための新しいオンライン適応手法を提案する。
提案手法は,広く使用されているベンチマークのベースラインを超え,最大4.9%,mAP7.9%の改善を実現している。
論文 参考訳(メタデータ) (2023-12-12T07:13:08Z) - Test-time Adaptation in the Dynamic World with Compound Domain Knowledge
Management [75.86903206636741]
テスト時間適応(TTA)により、モデルは新しい環境に適応し、テスト時間中にパフォーマンスを向上させることができる。
TTAのいくつかの研究は、継続的に変化する環境において、有望な適応性能を示している。
本稿ではまず,複合ドメイン知識管理を用いた堅牢なTTAフレームワークを提案する。
次に、ソースと現在のターゲットドメイン間のドメイン類似性を用いて適応率を変調する新しい正規化を考案する。
論文 参考訳(メタデータ) (2022-12-16T09:02:01Z) - TTTFlow: Unsupervised Test-Time Training with Normalizing Flow [18.121961548745112]
画像分類におけるディープニューラルネットワークの大きな問題は、テスト時のドメイン変更に対する脆弱性である。
近年,テストタイム・トレーニング (TTT) でこの問題に対処する手法が提案されている。
本稿では、正規化フローに基づく教師なしヘッドを用いたY字型アーキテクチャTTTFlowを提案し、潜在特徴の正規分布を学習し、テスト例におけるドメインシフトを検出する。
論文 参考訳(メタデータ) (2022-10-20T16:32:06Z) - TeST: Test-time Self-Training under Distribution Shift [99.68465267994783]
Test-Time Self-Training (TeST)は、あるソースデータとテスト時の新しいデータ分散に基づいてトレーニングされたモデルを入力する技術である。
また,TeSTを用いたモデルでは,ベースラインテスト時間適応アルゴリズムよりも大幅に改善されていることがわかった。
論文 参考訳(メタデータ) (2022-09-23T07:47:33Z) - Gradual Test-Time Adaptation by Self-Training and Style Transfer [5.110894308882439]
段階的ドメイン適応とテスト時間適応の自然な関係を示す。
本稿では,自己学習とスタイル伝達に基づく新しい手法を提案する。
CIFAR10C, CIFAR100C, ImageNet-Cベンチマークにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2022-08-16T13:12:19Z) - Learning Instance-Specific Adaptation for Cross-Domain Segmentation [79.61787982393238]
クロスドメイン画像セグメンテーションのためのテスト時間適応法を提案する。
テスト時に新しい目に見えないインスタンスが与えられると、インスタンス固有のBatchNormキャリブレーションを実行することで、事前トレーニングされたモデルを適用します。
論文 参考訳(メタデータ) (2022-03-30T17:59:45Z) - Learning to Generalize across Domains on Single Test Samples [126.9447368941314]
単体テストサンプルでドメインをまたいで一般化することを学ぶ。
変分ベイズ推論問題として単検体への適応を定式化する。
我々のモデルは、ドメインの一般化のための複数のベンチマークにおいて、最先端のメソッドよりも少なくとも同等で、より優れたパフォーマンスを達成します。
論文 参考訳(メタデータ) (2022-02-16T13:21:04Z) - Adaptive Risk Minimization: Learning to Adapt to Domain Shift [109.87561509436016]
ほとんどの機械学習アルゴリズムの基本的な前提は、トレーニングとテストデータは、同じ基礎となる分布から引き出されることである。
本研究では,学習データをドメインに構造化し,複数のテスト時間シフトが存在する場合の領域一般化の問題点について考察する。
本稿では、適応リスク最小化(ARM)の枠組みを紹介し、モデルがトレーニング領域に適応することを学ぶことで、効果的な適応のために直接最適化される。
論文 参考訳(メタデータ) (2020-07-06T17:59:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。