論文の概要: ViDA: Homeostatic Visual Domain Adapter for Continual Test Time
Adaptation
- arxiv url: http://arxiv.org/abs/2306.04344v1
- Date: Wed, 7 Jun 2023 11:18:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-08 14:49:10.409118
- Title: ViDA: Homeostatic Visual Domain Adapter for Continual Test Time
Adaptation
- Title(参考訳): ViDA: 継続的なテスト時間適応のためのホメオスタティックなビジュアルドメインアダプタ
- Authors: Jiaming Liu, Senqiao Yang, Peidong Jia, Ming Lu, Yandong Guo, Wei Xue,
Shanghang Zhang
- Abstract要約: 目標ドメインの継続的な変更に事前訓練されたモデルを適用するために、CTTAタスクを提案する。
我々はCTTAのためのビジュアルドメインアダプタ(ViDA)を提案し、ドメイン固有の知識とドメインに依存しない知識の両方を明示的に扱う。
提案手法は,CTTAタスクの分類とセグメント化の両方において,最先端の性能を実現する。
- 参考スコア(独自算出の注目度): 34.62457829216858
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Since real-world machine systems are running in non-stationary and
continually changing environments, Continual Test-Time Adaptation (CTTA) task
is proposed to adapt the pre-trained model to continually changing target
domains. Recently, existing methods mainly focus on model-based adaptation,
which aims to leverage a self-training manner to extract the target domain
knowledge. However, pseudo labels can be noisy and the updated model parameters
are uncertain under dynamic data distributions, leading to error accumulation
and catastrophic forgetting in the continual adaptation process. To tackle
these challenges and maintain the model plasticity, we tactfully design a
Visual Domain Adapter (ViDA) for CTTA, explicitly handling both domain-specific
and domain-agnostic knowledge. Specifically, we first comprehensively explore
the different domain representations of the adapters with trainable high and
low-rank embedding space. Then we inject ViDAs into the pre-trained model,
which leverages high-rank and low-rank prototypes to adapt the current domain
distribution and maintain the continual domain-shared knowledge, respectively.
To adapt to the various distribution shifts of each sample in target domains,
we further propose a Homeostatic Knowledge Allotment (HKA) strategy, which
adaptively merges knowledge from each ViDA with different rank prototypes.
Extensive experiments conducted on four widely-used benchmarks demonstrate that
our proposed method achieves state-of-the-art performance in both
classification and segmentation CTTA tasks. In addition, our method can be
regarded as a novel transfer paradigm and showcases promising results in
zero-shot adaptation of foundation models to continual downstream tasks and
distributions.
- Abstract(参考訳): 実世界のマシンシステムは非定常かつ継続的に変化する環境で動作しているため、継続テスト時間適応(CTTA)タスクは、トレーニング済みモデルに継続的に変化するターゲットドメインに適応するために提案される。
近年、既存の手法は主にモデルに基づく適応に焦点をあてており、対象ドメイン知識を抽出するために自己学習の方法を活用することを目的としている。
しかし、疑似ラベルはノイズになり、更新されたモデルパラメータは動的データ分布下で不確かであり、継続的な適応プロセスにおいてエラーの蓄積と破滅的な忘れることになる。
これらの課題に対処し、モデルの可塑性を維持するために、我々は、ドメイン固有の知識とドメインに依存しない知識の両方を明示的に扱いながら、CTTA用のVisual Domain Adapter (ViDA)を正確に設計する。
具体的には、まず、トレーニング可能な高階および低階埋め込み空間を持つアダプタの異なるドメイン表現を包括的に探索する。
次に,事前学習モデルにvidaを注入し,高ランクプロトタイプと低ランクプロトタイプを用いて,現在のドメイン分布を適応させ,連続的なドメイン共有知識を維持する。
対象領域における各サンプルの各種分布シフトに対応するために,各vidaからの知識を異なるランクのプロトタイプに適応的に融合するホメオスタティックナレッジ割り当て(hka)戦略を提案する。
4つのベンチマークを用いた広範囲な実験により,提案手法が分節化と分節化の両方において最先端の性能を実現することを実証した。
さらに,提案手法は,新しい伝達パラダイムと見なすことができ,基礎モデルのゼロショット適応による有望な成果を下流のタスクや分布に提示する。
関連論文リスト
- DRIVE: Dual-Robustness via Information Variability and Entropic Consistency in Source-Free Unsupervised Domain Adaptation [10.127634263641877]
ラベル付きデータなしで機械学習モデルを新しいドメインに適応させることは、医療画像、自律運転、リモートセンシングといったアプリケーションにおいて重要な課題である。
Source-Free Unsupervised Domain Adaptation (SFUDA)と呼ばれるこのタスクでは、未ラベルのターゲットデータのみを使用して、トレーニング済みのモデルをターゲットドメインに適応させる。
既存のSFUDAメソッドは、しばしば単一モデルアーキテクチャに依存し、ターゲットドメインにおける不確実性と可変性に悩まされる。
本稿では、2重モデルアーキテクチャを利用した新しいSFUDAフレームワークDRIVEを提案する。
論文 参考訳(メタデータ) (2024-11-24T20:35:04Z) - Learn from the Learnt: Source-Free Active Domain Adaptation via Contrastive Sampling and Visual Persistence [60.37934652213881]
ドメイン適応(DA)は、ソースドメインから関連するターゲットドメインへの知識伝達を容易にする。
本稿では、ソースデータフリーなアクティブドメイン適応(SFADA)という実用的なDAパラダイムについて検討する。
本稿では,学習者学習(LFTL)というSFADAの新たなパラダイムを紹介し,学習した学習知識を事前学習モデルから活用し,余分なオーバーヘッドを伴わずにモデルを積極的に反復する。
論文 参考訳(メタデータ) (2024-07-26T17:51:58Z) - Progressive Conservative Adaptation for Evolving Target Domains [76.9274842289221]
従来のドメイン適応は、典型的には、ソースドメインから定常ターゲットドメインに知識を転送する。
このような対象データに対する復元と適応は、時間とともに計算とリソース消費をエスカレートする。
我々は、進歩的保守的適応(PCAda)と呼ばれる、単純で効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2024-02-07T04:11:25Z) - Pseudo-Trilateral Adversarial Training for Domain Adaptive
Traversability Prediction [8.145900996884993]
トラバーサビリティ予測は、自律ナビゲーションの基本的な認識能力である。
非教師なしドメイン適応(UDA)を行うために、粗大なアライメント(CALI)を採用する新しい知覚モデルを提案する。
いくつかの挑戦的なドメイン適応設定において、提案したモデルが複数のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-26T00:39:32Z) - In Search for a Generalizable Method for Source Free Domain Adaptation [9.032468541589203]
ソースフリードメイン適応(SFDA)は、非ラベルデータのみを使用して、オフザシェルフモデルを新しいドメインに適応できるため、魅力的である。
本研究では,生物音響学における自然発生分布シフトの課題に対して,既存のSFDA技術を適用した。
既存の手法は、視力ベンチマークで観察されたものと異なる相対性を示し、時には適応が全くないよりも悪い場合もあります。
論文 参考訳(メタデータ) (2023-02-13T19:43:16Z) - Heterogeneous Domain Adaptation with Adversarial Neural Representation
Learning: Experiments on E-Commerce and Cybersecurity [7.748670137746999]
Heterogeneous Adversarial Neural Domain Adaptation (HANDA) は異種環境における伝達性を最大化するように設計されている。
画像とテキストの電子商取引ベンチマークを用いて,最先端HDA手法に対する性能評価を3つの実験により行った。
論文 参考訳(メタデータ) (2022-05-05T16:57:36Z) - Towards Online Domain Adaptive Object Detection [79.89082006155135]
既存のオブジェクト検出モデルは、トレーニングデータとテストデータの両方が同じソースドメインからサンプリングされていると仮定します。
オンライン設定における対象領域の一般化を適応・改善する新しい統合適応フレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-11T17:47:22Z) - Stagewise Unsupervised Domain Adaptation with Adversarial Self-Training
for Road Segmentation of Remote Sensing Images [93.50240389540252]
リモートセンシング画像からの道路セグメンテーションは、幅広い応用可能性を持つ課題である。
本稿では,この領域における領域シフト(DS)問題に対処するため,RoadDAと呼ばれる新たな段階的ドメイン適応モデルを提案する。
2つのベンチマーク実験の結果、RoadDAはドメインギャップを効率的に減らし、最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2021-08-28T09:29:14Z) - Transformer-Based Source-Free Domain Adaptation [134.67078085569017]
本研究では,ソースフリードメイン適応(SFDA)の課題について検討する。
我々は、FDAの一般化モデルを学ぶためのTransformer(TransDA)という、汎用的で効果的なフレームワークを提案する。
論文 参考訳(メタデータ) (2021-05-28T23:06:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。