論文の概要: SCoDA: Self-supervised Continual Domain Adaptation
- arxiv url: http://arxiv.org/abs/2509.09935v1
- Date: Fri, 12 Sep 2025 02:53:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-15 16:03:07.96257
- Title: SCoDA: Self-supervised Continual Domain Adaptation
- Title(参考訳): SCoDA: 自己監督型連続ドメイン適応
- Authors: Chirayu Agrawal, Snehasis Mukherjee,
- Abstract要約: Source-Free Domain Adaptation (SFDA)は、ソースドメインのデータにアクセスせずにターゲットドメインにモデルを適用するという課題に対処する。
これらの制約に対処するため、自己監督型連続ドメイン適応(SCoDA)を導入する。
- 参考スコア(独自算出の注目度): 1.2389885407843222
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Source-Free Domain Adaptation (SFDA) addresses the challenge of adapting a model to a target domain without access to the data of the source domain. Prevailing methods typically start with a source model pre-trained with full supervision and distill the knowledge by aligning instance-level features. However, these approaches, relying on cosine similarity over L2-normalized feature vectors, inadvertently discard crucial geometric information about the latent manifold of the source model. We introduce Self-supervised Continual Domain Adaptation (SCoDA) to address these limitations. We make two key departures from standard practice: first, we avoid the reliance on supervised pre-training by initializing the proposed framework with a teacher model pre-trained entirely via self-supervision (SSL). Second, we adapt the principle of geometric manifold alignment to the SFDA setting. The student is trained with a composite objective combining instance-level feature matching with a Space Similarity Loss. To combat catastrophic forgetting, the teacher's parameters are updated via an Exponential Moving Average (EMA) of the student's parameters. Extensive experiments on benchmark datasets demonstrate that SCoDA significantly outperforms state-of-the-art SFDA methods.
- Abstract(参考訳): Source-Free Domain Adaptation (SFDA)は、ソースドメインのデータにアクセスせずにターゲットドメインにモデルを適用するという課題に対処する。
一般的な手法は、典型的には、完全な監視で事前訓練されたソースモデルから始まり、インスタンスレベルの特徴を調整することで知識を蒸留する。
しかしながら、これらのアプローチは、L2-正規化された特徴ベクトルに対するコサイン類似性に頼って、ソースモデルの潜在多様体に関する重要な幾何学的情報を必然的に捨てる。
これらの制約に対処するため、自己監督型連続ドメイン適応(SCoDA)を導入する。
まず、自己監督(SSL)を通じて完全に事前訓練された教師モデルを用いて、提案したフレームワークを初期化することにより、教師付き事前訓練への依存を避ける。
次に,SFDAの設定に幾何多様体アライメントの原理を適用した。
学生は、空間類似損失とインスタンスレベルの特徴マッチングを組み合わせた複合目的で訓練される。
破滅的な忘れに対処するために、教師のパラメータは、生徒のパラメータの指数移動平均(EMA)によって更新される。
ベンチマークデータセットの大規模な実験により、SCoDAは最先端のSFDA法よりも大幅に優れていることが示された。
関連論文リスト
- What Has Been Overlooked in Contrastive Source-Free Domain Adaptation: Leveraging Source-Informed Latent Augmentation within Neighborhood Context [28.634315143647385]
ソースフリードメイン適応(SFDA)は、ラベル付きデータセットを使用してトレーニングされたモデルを適用して、ラベルなしデータセットで効果的に実行する。
この適応は、この2つの領域の間にデータ分布のかなりの相違が存在する場合、特に重要である。
対照的なSFDAに適した,単純かつ高効率な潜伏増強法を提案する。
論文 参考訳(メタデータ) (2024-12-18T20:09:46Z) - SIDE: Self-supervised Intermediate Domain Exploration for Source-free
Domain Adaptation [36.470026809824674]
ドメイン適応は、ソースドメインからターゲットドメインに学習した知識を転送する際に、ドメインシフトを軽減することを目的としています。
プライバシの問題により、ソースフリードメイン適応(SFDA)は、最近非常に要求される一方で難しいものになっている。
本稿では、ドメインギャップを効果的に中間ドメインにブリッジする自己教師付き中間ドメイン探索(SIDE)を提案する。
論文 参考訳(メタデータ) (2023-10-13T07:50:37Z) - ViDA: Homeostatic Visual Domain Adapter for Continual Test Time Adaptation [48.039156140237615]
目標ドメインの継続的な変更に事前訓練されたモデルを適用するために、連続的なテスト時間適応タスクを提案する。
我々はCTTA用のVisual Domain Adapter (ViDA) を設計し、ドメイン固有知識とドメイン共有知識の両方を明示的に扱う。
提案手法は,CTTAタスクの分類とセグメント化の両方において,最先端の性能を実現する。
論文 参考訳(メタデータ) (2023-06-07T11:18:53Z) - CoSDA: Continual Source-Free Domain Adaptation [78.47274343972904]
ソースデータにアクセスせずに、ソースフリードメイン適応(SFDA)は、ソースドメインのトレーニングされたモデルからターゲットドメインに知識を転送する。
最近では、ソースドメインのデータプライバシ保護の必要性から、SFDAの人気が高まっている。
教師-学生モデルペアを2倍高速に最適化し,整合性学習機能を備えた,CoSDAという連続的ソースフリードメイン適応手法を提案する。
論文 参考訳(メタデータ) (2023-04-13T15:53:23Z) - CAusal and collaborative proxy-tasKs lEarning for Semi-Supervised Domain
Adaptation [20.589323508870592]
半教師付きドメイン適応(SSDA)は、ソースドメインデータとラベル付きターゲットサンプルを効果的に活用することにより、学習者を新しいドメインに適応させる。
提案手法は,SSDAデータセットの有効性と汎用性の観点から,SOTA法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-03-30T16:48:28Z) - Source-Free Domain Adaptation via Distribution Estimation [106.48277721860036]
ドメイン適応は、ラベル付きソースドメインから学んだ知識を、データ分散が異なるラベル付きターゲットドメインに転送することを目的としています。
近年,ソースフリードメイン適応 (Source-Free Domain Adaptation, SFDA) が注目されている。
本研究では,SFDA-DEと呼ばれる新しいフレームワークを提案し,ソース分布推定によるSFDAタスクに対処する。
論文 参考訳(メタデータ) (2022-04-24T12:22:19Z) - Unified Instance and Knowledge Alignment Pretraining for Aspect-based
Sentiment Analysis [96.53859361560505]
Aspect-based Sentiment Analysis (ABSA) は、ある側面に対する感情の極性を決定することを目的としている。
事前トレーニングと下流ABSAデータセットの間には、常に深刻なドメインシフトが存在する。
我々は,バニラ・プレトレイン・ファインチューンパイプラインにアライメント事前訓練フレームワークを導入する。
論文 参考訳(メタデータ) (2021-10-26T04:03:45Z) - Source-Free Open Compound Domain Adaptation in Semantic Segmentation [99.82890571842603]
SF-OCDAでは、ターゲットモデルを学習するために、ソース事前訓練されたモデルとターゲットデータのみが利用可能である。
そこで我々は,Cross-Patch Style Swap (CPSS)を提案する。
提案手法は,C-Drivingデータセット上で最先端の結果を生成する。
論文 参考訳(メタデータ) (2021-06-07T08:38:41Z) - Do We Really Need to Access the Source Data? Source Hypothesis Transfer
for Unsupervised Domain Adaptation [102.67010690592011]
Unsupervised adaptUDA (UDA) は、ラベル付きソースデータセットから学んだ知識を活用して、新しいラベル付きドメインで同様のタスクを解決することを目的としている。
従来のUDAメソッドは、モデルに適応するためには、通常、ソースデータにアクセスする必要がある。
この作業は、訓練済みのソースモデルのみが利用できる実践的な環境に取り組み、ソースデータなしでそのようなモデルを効果的に活用してUDA問題を解決する方法に取り組みます。
論文 参考訳(メタデータ) (2020-02-20T03:13:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。