論文の概要: Training-Free Label Space Alignment for Universal Domain Adaptation
- arxiv url: http://arxiv.org/abs/2509.17452v1
- Date: Mon, 22 Sep 2025 07:46:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:16.273038
- Title: Training-Free Label Space Alignment for Universal Domain Adaptation
- Title(参考訳): ユニバーサルドメイン適応のための学習自由ラベル空間アライメント
- Authors: Dujin Lee, Sojung An, Jungmyung Wi, Kuniaki Saito, Donghyun Kim,
- Abstract要約: ユニバーサルドメイン適応(UniDA)は、ラベル付きソースドメインからラベルなしターゲットドメインに知識を転送する。
We propose a training-free label-space alignment method for UniDA (ours)。
本手法は,各領域間の雑音ラベルのフィルタリングと精細化によって,視覚空間の代わりにラベル空間を整列する。
- 参考スコア(独自算出の注目度): 10.998981398362192
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Universal domain adaptation (UniDA) transfers knowledge from a labeled source domain to an unlabeled target domain, where label spaces may differ and the target domain may contain private classes. Previous UniDA methods primarily focused on visual space alignment but often struggled with visual ambiguities due to content differences, which limited their robustness and generalizability. To overcome this, we introduce a novel approach that leverages the strong \textit{zero-shot capabilities} of recent vision-language foundation models (VLMs) like CLIP, concentrating solely on label space alignment to enhance adaptation stability. CLIP can generate task-specific classifiers based only on label names. However, adapting CLIP to UniDA is challenging because the label space is not fully known in advance. In this study, we first utilize generative vision-language models to identify unknown categories in the target domain. Noise and semantic ambiguities in the discovered labels -- such as those similar to source labels (e.g., synonyms, hypernyms, hyponyms) -- complicate label alignment. To address this, we propose a training-free label-space alignment method for UniDA (\ours). Our method aligns label spaces instead of visual spaces by filtering and refining noisy labels between the domains. We then construct a \textit{universal classifier} that integrates both shared knowledge and target-private class information, thereby improving generalizability under domain shifts. The results reveal that the proposed method considerably outperforms existing UniDA techniques across key DomainBed benchmarks, delivering an average improvement of \textcolor{blue}{+7.9\%}in H-score and \textcolor{blue}{+6.1\%} in H$^3$-score. Furthermore, incorporating self-training further enhances performance and achieves an additional (\textcolor{blue}{+1.6\%}) increment in both H- and H$^3$-scores.
- Abstract(参考訳): ユニバーサルドメイン適応(UniDA)は、ラベル付きソースドメインからラベル付きターゲットドメインに知識を転送する。
以前のUniDA手法は主に視覚空間のアライメントに重点を置いていたが、コンテンツの違いによる視覚的曖昧さに悩まされ、その堅牢性と一般化性は制限された。
この問題を解決するために、CLIPのような近年の視覚言語基盤モデル(VLM)の強力な「textit{zero-shot」機能を活用し、ラベル空間のアライメントのみに集中して適応安定性を向上させる新しいアプローチを導入する。
CLIPはラベル名のみに基づいてタスク固有の分類子を生成することができる。
しかし、CLIPをUniDAに適応させることは、ラベル空間が事前に完全には知られていないため、難しい。
本研究では,まず生成視覚言語モデルを用いて,対象領域の未知のカテゴリを同定する。
発見されたラベルのノイズとセマンティックな曖昧さ - ソースラベル(例えば、シノニム、ハイパーネム、偽名)に似たもの - は、ラベルアライメントを複雑にする。
そこで本研究では,UniDA (\ours) のための学習自由ラベル空間アライメント手法を提案する。
本手法は,各領域間の雑音ラベルのフィルタリングと精細化によって,視覚空間の代わりにラベル空間を整列する。
次に、共有知識とターゲットプライベートなクラス情報を統合した \textit{universal classifier} を構築し、ドメインシフト時の一般化性を向上させる。
その結果、提案手法は、主要なDomainBedベンチマークにおいて既存のUniDA技術よりもかなり優れており、Hスコアにおける \textcolor{blue}{+7.9\%} とH^3$スコアにおける \textcolor{blue}{+6.1\%} の平均的な改善を実現していることがわかった。
さらに、自己学習を取り入れることでパフォーマンスがさらに向上し、HとH$^3$スコアの両方で追加の(\textcolor{blue}{+1.6\%})インクリメントが達成される。
関連論文リスト
- Cross-Domain Attribute Alignment with CLIP: A Rehearsal-Free Approach for Class-Incremental Unsupervised Domain Adaptation [27.40776917141145]
Class-Incremental Unsupervised Domain Adaptation (CI-UDA)は、ラベル付きソースドメインからラベル付きターゲットドメインにモデルを適応させることを目的としている。
この問題を解決する鍵は、以前の対象クラスに関する知識の破滅的な忘れを避けることである。
本稿では,CI-UDAタスクを促進するために,ドメイン不変およびクラス非依存の知識をマイニングし,保存することを提案する。
論文 参考訳(メタデータ) (2025-09-14T13:27:46Z) - Universal Domain Adaptation for Semantic Segmentation [6.860995924860749]
セマンティックセグメンテーションのための教師なしドメイン適応(UDA-SS)は、ラベル付きソースデータからラベル付きターゲットデータへの知識の転送を目的としている。
従来のUDA-SS手法では、ソースドメインとターゲットドメインのカテゴリ設定が知られているが、現実のシナリオでは非現実的である。
セマンティック (UniDA-SS) のためのユニバーサルドメイン適応を提案し, カテゴリ設定の事前知識を必要とせず, 頑健な適応を実現する。
論文 参考訳(メタデータ) (2025-05-28T15:14:11Z) - CA-UDA: Class-Aware Unsupervised Domain Adaptation with Optimal
Assignment and Pseudo-Label Refinement [84.10513481953583]
教師なしドメイン適応(Unsupervised domain adapt, UDA)は、ターゲットデータに欠けているラベルのサロゲートとして、優れた擬似ラベルの選択に焦点を当てる。
ソースとターゲットドメインの共有ネットワークが通常、擬似ラベルの選択に使用されるため、擬似ラベルを劣化させるソースドメインバイアスは依然として存在する。
本稿では, 擬似ラベルの品質向上のためのCA-UDAを提案し, 最適課題, 擬似ラベル改善戦略, クラス対応ドメインアライメントを提案する。
論文 参考訳(メタデータ) (2022-05-26T18:45:04Z) - Cross-domain Contrastive Learning for Unsupervised Domain Adaptation [108.63914324182984]
教師なしドメイン適応(Unsupervised domain adapt、UDA)は、完全にラベル付けされたソースドメインから異なるラベル付けされていないターゲットドメインに学習した知識を転送することを目的としている。
対照的な自己教師型学習に基づいて、トレーニングとテストセット間のドメインの相違を低減するために、機能を整列させます。
論文 参考訳(メタデータ) (2021-06-10T06:32:30Z) - Learning Target Domain Specific Classifier for Partial Domain Adaptation [85.71584004185031]
非教師付きドメイン適応(UDA)は、ラベル付きソースドメインからラベル付きターゲットドメインに知識を転送する際の分散不一致を低減することを目的としている。
本稿では,ターゲットラベル空間をソースラベル空間に仮定する,より現実的なUDAシナリオに焦点を当てる。
論文 参考訳(メタデータ) (2020-08-25T02:28:24Z) - Domain Adaptive Semantic Segmentation Using Weak Labels [115.16029641181669]
本稿では,画像レベルの弱いラベルを持つセマンティックセグメンテーションにおけるドメイン適応のための新しいフレームワークを提案する。
ネットワークに特定のカテゴリへの参加を強制する弱いラベル分類モジュールを開発する。
実験では,UDAにおける既存の最先端技術に対する大幅な改善と,WDA設定における新たなベンチマークを示す。
論文 参考訳(メタデータ) (2020-07-30T01:33:57Z) - Domain Adaptation with Auxiliary Target Domain-Oriented Classifier [115.39091109079622]
ドメイン適応は、知識をラベルリッチだが異質なドメインからラベルケアドメインに転送することを目的としている。
最も一般的なSSLテクニックの1つは、ラベルのない各データに擬似ラベルを割り当てる擬似ラベル付けである。
我々はAuxiliary Target Domain-Oriented (ATDOC) と呼ばれる新しい擬似ラベリングフレームワークを提案する。
ATDOCは、ターゲットデータのみのための補助分類器を導入してバイアスを軽減し、擬似ラベルの品質を向上させる。
論文 参考訳(メタデータ) (2020-07-08T15:01:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。