論文の概要: SATA: Source Anchoring and Target Alignment Network for Continual Test
Time Adaptation
- arxiv url: http://arxiv.org/abs/2304.10113v1
- Date: Thu, 20 Apr 2023 06:38:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-21 14:20:16.750524
- Title: SATA: Source Anchoring and Target Alignment Network for Continual Test
Time Adaptation
- Title(参考訳): SATA: 連続テスト時間適応のためのソースアンカリングとターゲットアライメントネットワーク
- Authors: Goirik Chakrabarty, Manogna Sreenivas and Soma Biswas
- Abstract要約: テスト領域/環境を継続的に変更する上で、トレーニングされたモデルに満足いくように適応させることは、重要で難しい作業です。
本稿では,オンライン適応における以下の特徴を満たすことを目的とした,新しいフレームワークであるSATAを提案する。
- 参考スコア(独自算出の注目度): 18.828328749838057
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adapting a trained model to perform satisfactorily on continually changing
testing domains/environments is an important and challenging task. In this
work, we propose a novel framework, SATA, which aims to satisfy the following
characteristics required for online adaptation: 1) can work seamlessly with
different (preferably small) batch sizes to reduce latency; 2) should continue
to work well for the source domain; 3) should have minimal tunable
hyper-parameters and storage requirements. Given a pre-trained network trained
on source domain data, the proposed SATA framework modifies the batch-norm
affine parameters using source anchoring based self-distillation. This ensures
that the model incorporates the knowledge of the newly encountered domains,
without catastrophically forgetting about the previously seen ones. We also
propose a source-prototype driven contrastive alignment to ensure natural
grouping of the target samples, while maintaining the already learnt semantic
information. Extensive evaluation on three benchmark datasets under challenging
settings justify the effectiveness of SATA for real-world applications.
- Abstract(参考訳): 継続的に変化するテストドメイン/環境に対して、トレーニングされたモデルを適用することは、重要かつ困難なタスクです。
本研究では,オンライン適応に必要な以下の特徴を満たすことを目的とした,新しいフレームワークであるSATAを提案する。
1) 異なる(おそらく小さい)バッチサイズでシームレスに動作し、レイテンシを低減できる。
2) ソースドメインについては引き続きうまく機能するべきである。
3) 調整可能なハイパーパラメータとストレージ要件の最小化。
ソースドメインデータに基づいてトレーニングされたネットワークを前提として、提案したSATAフレームワークは、ソースアンカーベースの自己蒸留を用いてバッチノームアフィンパラメータを変更する。
これにより、モデルに新たに遭遇したドメインの知識が組み込まれていることが保証される。
また、すでに学習済みのセマンティック情報を維持しつつ、対象サンプルの自然なグループ化を確保するために、ソースプロトタイプ駆動コントラストアライメントを提案する。
挑戦的な設定下での3つのベンチマークデータセットの大規模な評価は、現実世界のアプリケーションにおけるSATAの有効性を正当化する。
関連論文リスト
- What, How, and When Should Object Detectors Update in Continually
Changing Test Domains? [34.13756022890991]
テストデータを推測しながらモデルをオンラインに適応させるテスト時適応アルゴリズムが提案されている。
連続的に変化するテスト領域におけるオブジェクト検出のための新しいオンライン適応手法を提案する。
提案手法は,広く使用されているベンチマークのベースラインを超え,最大4.9%,mAP7.9%の改善を実現している。
論文 参考訳(メタデータ) (2023-12-12T07:13:08Z) - Informative Data Mining for One-Shot Cross-Domain Semantic Segmentation [84.82153655786183]
Informative Data Mining (IDM) と呼ばれる新しいフレームワークを提案し、セマンティックセグメンテーションのための効率的なワンショットドメイン適応を実現する。
IDMは、最も情報性の高いサンプルを特定するために不確実性に基づく選択基準を提供し、迅速に適応し、冗長なトレーニングを減らす。
提案手法は,GTA5/SYNTHIAからCityscapesへの適応タスクにおいて,既存の手法より優れ,56.7%/55.4%の最先端のワンショット性能を実現している。
論文 参考訳(メタデータ) (2023-09-25T15:56:01Z) - Continual Source-Free Unsupervised Domain Adaptation [37.060694803551534]
既存のソースフリーのUnsupervised Domain Adaptationアプローチは破滅的な忘れを見せる。
本稿では,SuDAの継続的な学習環境における課題に対応するための連続的なSUDA(C-SUDA)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-14T20:11:05Z) - Visual Prompt Tuning for Test-time Domain Adaptation [48.16620171809511]
本稿では,2つの重要な要素を持つデータ効率・プロンプト・チューニング(DePT)と呼ばれる簡単なレシピを提案する。
このようなパラメータ効率の良い微調整は,学習対象の雑音に過度に適応することなく,モデル表現を対象領域に効率よく適応させることができる。
パラメータがはるかに少ないため、DePTは主要な適応ベンチマークにおける最先端のパフォーマンスだけでなく、優れたデータ効率を示す。
論文 参考訳(メタデータ) (2022-10-10T16:45:13Z) - Domain Alignment Meets Fully Test-Time Adaptation [24.546705919244936]
デプロイされたMLモデルの基本的な要件は、トレーニングとは異なるテストディストリビューションから引き出されたデータに一般化することである。
本稿では,元のソースデータへのアクセスを制限した,この問題の難易度に焦点をあてる。
ソースデータ全体にアクセスする必要性を緩和し,UDAとFTTAを橋渡しする新しいアプローチCATTAnを提案する。
論文 参考訳(メタデータ) (2022-07-09T03:17:19Z) - CAFA: Class-Aware Feature Alignment for Test-Time Adaptation [50.26963784271912]
テスト時間適応(TTA)は、テスト時にラベルのないデータにモデルを適応させることによって、この問題に対処することを目的としている。
本稿では,クラス認識特徴アライメント(CAFA, Class-Aware Feature Alignment)と呼ばれる単純な機能アライメント損失を提案する。
論文 参考訳(メタデータ) (2022-06-01T03:02:07Z) - Continual Test-Time Domain Adaptation [94.51284735268597]
テスト時ドメイン適応は、ソースデータを使用しずに、ソース事前訓練されたモデルをターゲットドメインに適応することを目的としている。
CoTTAは実装が容易で、市販の事前訓練モデルに簡単に組み込むことができる。
論文 参考訳(メタデータ) (2022-03-25T11:42:02Z) - Lifelong Unsupervised Domain Adaptive Person Re-identification with
Coordinated Anti-forgetting and Adaptation [127.6168183074427]
本稿では,LUDA (Lifelong Unsupervised Domain Adaptive) という新たなタスクを提案する。
これは、モデルがターゲット環境のラベル付けされていないデータに継続的に適応する必要があるため、難しい。
我々は、CLUDA-ReIDと呼ばれるこのタスクのための効果的なスキームを設計し、そこでは、アンチフォージェッティングが適応と調和して調整される。
論文 参考訳(メタデータ) (2021-12-13T13:19:45Z) - On Universal Black-Box Domain Adaptation [53.7611757926922]
実践的な展開という観点から,ドメイン適応の最小限の制約条件について検討する。
ソースモデルのインターフェースのみがターゲットドメインで利用可能であり、2つのドメイン間のラベル空間関係が異なることや未知であることが許されている。
対象試料の局所近傍における予測の整合性によって正規化された自己訓練フレームワークに統一することを提案する。
論文 参考訳(メタデータ) (2021-04-10T02:21:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。