論文の概要: GMM-COMET: Continual Source-Free Universal Domain Adaptation via a Mean Teacher and Gaussian Mixture Model-Based Pseudo-Labeling
- arxiv url: http://arxiv.org/abs/2601.11161v1
- Date: Fri, 16 Jan 2026 10:23:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-19 20:21:50.447832
- Title: GMM-COMET: Continual Source-Free Universal Domain Adaptation via a Mean Teacher and Gaussian Mixture Model-Based Pseudo-Labeling
- Title(参考訳): GMM-COMET: 平均教師とガウス混合モデルに基づく擬似ラベリングによる連続的ソースフリーユニバーサルドメイン適応
- Authors: Pascal Schlachter, Bin Yang,
- Abstract要約: 教師なしのドメイン適応は、トレーニングとテストデータの間のドメインシフトが、現実世界のアプリケーションにおけるニューラルネットワークのパフォーマンスを損なう問題に対処する。
ソースフリーユニバーサルドメイン適応(SF-UniDA)として知られるこの設定は、最近注目を集めている。
連続的なSF-UniDAに関する最初の研究を行い、モデルが複数の異なる未ラベル対象領域のストリームに逐次適応する必要があることを示す。
- 参考スコア(独自算出の注目度): 3.1744658275045103
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised domain adaptation tackles the problem that domain shifts between training and test data impair the performance of neural networks in many real-world applications. Thereby, in realistic scenarios, the source data may no longer be available during adaptation, and the label space of the target domain may differ from the source label space. This setting, known as source-free universal domain adaptation (SF-UniDA), has recently gained attention, but all existing approaches only assume a single domain shift from source to target. In this work, we present the first study on continual SF-UniDA, where the model must adapt sequentially to a stream of multiple different unlabeled target domains. Building upon our previous methods for online SF-UniDA, we combine their key ideas by integrating Gaussian mixture model-based pseudo-labeling within a mean teacher framework for improved stability over long adaptation sequences. Additionally, we introduce consistency losses for further robustness. The resulting method GMM-COMET provides a strong first baseline for continual SF-UniDA and is the only approach in our experiments to consistently improve upon the source-only model across all evaluated scenarios. Our code is available at https://github.com/pascalschlachter/GMM-COMET.
- Abstract(参考訳): 教師なしのドメイン適応は、トレーニングとテストデータの間のドメインシフトが、多くの現実世界のアプリケーションでニューラルネットワークのパフォーマンスを損なう問題に取り組む。
これにより、現実的なシナリオでは、ソースデータが適応中に利用できなくなり、ターゲットドメインのラベル空間がソースラベル空間と異なる場合がある。
ソースフリーユニバーサルドメイン適応(SF-UniDA)として知られるこの設定は最近注目を集めているが、既存のアプローチはすべてソースからターゲットへの単一のドメインシフトを前提としている。
本研究では、連続的なSF-UniDAに関する最初の研究を行い、モデルが複数の異なる未ラベルのターゲットドメインのストリームに順次適応する必要があることを示す。
従来のオンラインSF-UniDAの手法をベースとして,ガウス混合モデルに基づく擬似ラベルを平均教師フレームワークに統合し,長期適応シーケンスの安定性を向上する。
さらに、さらに堅牢性を高めるために、一貫性の損失を導入します。
GMM-COMETは、連続的なSF-UniDAのための強力な第1のベースラインを提供し、全ての評価シナリオでソースのみのモデルを一貫して改善するための、我々の実験において唯一のアプローチである。
私たちのコードはhttps://github.com/pascalschlachter/GMM-COMETで利用可能です。
関連論文リスト
- Memory-Efficient Pseudo-Labeling for Online Source-Free Universal Domain Adaptation using a Gaussian Mixture Model [3.1265626879839923]
実際には、トレーニングデータとテストデータの間にドメインシフトが発生する可能性があり、トレーニング済みのソースモデルをターゲットドメインに調整するためには、ドメイン適応(DA)が必要である。
UniDAは、ソースとターゲットドメインの間の追加のカテゴリ(ラベル)シフトの可能性に対処するために注目を集めている。
ガウス混合モデル(GMM)を用いて特徴空間における既知のクラス分布を連続的にキャプチャする新しい手法を提案する。
このアプローチは、DomainNetおよびOffice-Homeデータセットに関するすべての実験において、最先端の結果を達成する。
論文 参考訳(メタデータ) (2024-07-19T11:13:31Z) - SIDE: Self-supervised Intermediate Domain Exploration for Source-free
Domain Adaptation [36.470026809824674]
ドメイン適応は、ソースドメインからターゲットドメインに学習した知識を転送する際に、ドメインシフトを軽減することを目的としています。
プライバシの問題により、ソースフリードメイン適応(SFDA)は、最近非常に要求される一方で難しいものになっている。
本稿では、ドメインギャップを効果的に中間ドメインにブリッジする自己教師付き中間ドメイン探索(SIDE)を提案する。
論文 参考訳(メタデータ) (2023-10-13T07:50:37Z) - COCA: Classifier-Oriented Calibration via Textual Prototype for
Source-Free Universal Domain Adaptation [58.53682309436275]
ユニバーサルドメイン適応(UniDA)は、データソース間のドメインとカテゴリのシフトに対処することを目的としている。
SF-UniDAメソッドは、ターゲットドメインへの適応を実行する際に、ソースサンプルに直接アクセスする必要がなくなる。
既存のSF-UniDAメソッドは、ソースモデルをトレーニングするために大量のラベル付きソースサンプルを必要とする。
本稿では,この問題に対処するための新しいCOCA法を提案する。
論文 参考訳(メタデータ) (2023-08-21T03:50:19Z) - Upcycling Models under Domain and Category Shift [95.22147885947732]
グローバルかつ局所的なクラスタリング学習技術(GLC)を導入する。
我々は、異なる対象クラス間での区別を実現するために、新しい1-vs-allグローバルクラスタリングアルゴリズムを設計する。
注目すべきは、最も困難なオープンパーティルセットDAシナリオにおいて、GLCは、VisDAベンチマークでUMADを14.8%上回っていることである。
論文 参考訳(メタデータ) (2023-03-13T13:44:04Z) - Divide and Contrast: Source-free Domain Adaptation via Adaptive
Contrastive Learning [122.62311703151215]
Divide and Contrast (DaC) は、それぞれの制限を回避しつつ、両方の世界の善良な端を接続することを目的としている。
DaCは、ターゲットデータをソースライクなサンプルとターゲット固有なサンプルに分割する。
さらに、ソースライクなドメインと、メモリバンクベースの最大平均離散性(MMD)損失を用いて、ターゲット固有のサンプルとを整合させて、分散ミスマッチを低減する。
論文 参考訳(メタデータ) (2022-11-12T09:21:49Z) - Source-Free Domain Adaptation via Distribution Estimation [106.48277721860036]
ドメイン適応は、ラベル付きソースドメインから学んだ知識を、データ分散が異なるラベル付きターゲットドメインに転送することを目的としています。
近年,ソースフリードメイン適応 (Source-Free Domain Adaptation, SFDA) が注目されている。
本研究では,SFDA-DEと呼ばれる新しいフレームワークを提案し,ソース分布推定によるSFDAタスクに対処する。
論文 参考訳(メタデータ) (2022-04-24T12:22:19Z) - On Universal Black-Box Domain Adaptation [53.7611757926922]
実践的な展開という観点から,ドメイン適応の最小限の制約条件について検討する。
ソースモデルのインターフェースのみがターゲットドメインで利用可能であり、2つのドメイン間のラベル空間関係が異なることや未知であることが許されている。
対象試料の局所近傍における予測の整合性によって正規化された自己訓練フレームワークに統一することを提案する。
論文 参考訳(メタデータ) (2021-04-10T02:21:09Z) - Do We Really Need to Access the Source Data? Source Hypothesis Transfer
for Unsupervised Domain Adaptation [102.67010690592011]
Unsupervised adaptUDA (UDA) は、ラベル付きソースデータセットから学んだ知識を活用して、新しいラベル付きドメインで同様のタスクを解決することを目的としている。
従来のUDAメソッドは、モデルに適応するためには、通常、ソースデータにアクセスする必要がある。
この作業は、訓練済みのソースモデルのみが利用できる実践的な環境に取り組み、ソースデータなしでそのようなモデルを効果的に活用してUDA問題を解決する方法に取り組みます。
論文 参考訳(メタデータ) (2020-02-20T03:13:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。