論文の概要: Domain Generalization in-the-Wild: Disentangling Classification from Domain-Aware Representations
- arxiv url: http://arxiv.org/abs/2508.21769v1
- Date: Fri, 29 Aug 2025 16:43:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-01 19:45:11.117728
- Title: Domain Generalization in-the-Wild: Disentangling Classification from Domain-Aware Representations
- Title(参考訳): ワイドにおけるドメインの一般化:ドメイン・アウェアの表現から遠ざかる分類
- Authors: Ha Min Son, Zhe Zhao, Shahbaz Rezaei, Xin Liu,
- Abstract要約: ここでは、CLIP-DCA(拡張ドメイン認識表現からの関心分類)を提案する。
我々は、ImageNet上でCLIPを微調整した後、OODスコアを定量化した33の多様なデータセットについて評価した。
既存の手法と比較して,この課題評価において大幅な改善が見られた。
- 参考スコア(独自算出の注目度): 8.304513635504138
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Evaluating domain generalization (DG) for foundational models like CLIP is challenging, as web-scale pretraining data potentially covers many existing benchmarks. Consequently, current DG evaluation may neither be sufficiently challenging nor adequately test genuinely unseen data scenarios. To better assess the performance of CLIP on DG in-the-wild, a scenario where CLIP encounters challenging unseen data, we consider two approaches: (1) evaluating on 33 diverse datasets with quantified out-of-distribution (OOD) scores after fine-tuning CLIP on ImageNet, and (2) using unlearning to make CLIP `forget' some domains as an approximation. We observe that CLIP's performance deteriorates significantly on more OOD datasets. To address this, we present CLIP-DCA (Disentangling Classification from enhanced domain Aware representations). Our approach is motivated by the observation that while standard domain invariance losses aim to make representations domain-invariant, this can be harmful to foundation models by forcing the discarding of domain-aware representations beneficial for generalization. We instead hypothesize that enhancing domain awareness is a prerequisite for effective domain-invariant classification in foundation models. CLIP-DCA identifies and enhances domain awareness within CLIP's encoders using a separate domain head and synthetically generated diverse domain data. Simultaneously, it encourages domain-invariant classification through disentanglement from the domain features. CLIP-DCA shows significant improvements within this challenging evaluation compared to existing methods, particularly on datasets that are more OOD.
- Abstract(参考訳): CLIPのような基礎モデルに対するドメイン一般化(DG)の評価は、Webスケールの事前トレーニングデータが既存のベンチマークの多くをカバーする可能性があるため、難しい。
結果として、現在のDG評価は、十分に困難でも、真に見えないデータシナリオを適切にテストすることもできない。
CLIPが未確認データに遭遇するシナリオであるDG in the-wild上でのCLIPの性能をよりよく評価するために、(1)ImageNet上の微調整CLIP後のOODスコアを定量化した33の多様なデータセットで評価すること、(2)CLIPを"忘れる"ためにアンラーニングを使用すること、の2つのアプローチを検討する。
私たちは、より多くのOODデータセットでCLIPのパフォーマンスが著しく低下するのを観察します。
そこで我々はCLIP-DCA (Disentangling Classification from enhanced domain Aware representations)を提案する。
我々のアプローチは、標準のドメイン不変量損失は、ドメイン不変性を表現することを目的としているが、一般化に有用なドメイン対応表現の破棄を強制することにより、基礎モデルに有害である、という観察に動機づけられている。
代わりに、ドメイン認識の向上は基礎モデルにおける効果的なドメイン不変分類の前提条件である、という仮説を立てる。
CLIP-DCAは、別々のドメインヘッドと合成生成された多様なドメインデータを使用して、CLIPのエンコーダ内のドメイン認識を識別し、強化する。
同時に、ドメインの特徴から切り離してドメイン不変の分類を奨励する。
CLIP-DCAは、既存のメソッド、特にOODがより多いデータセットと比較して、この難しい評価において、大幅に改善されている。
関連論文リスト
- Joint semi-supervised and contrastive learning enables domain generalization and multi-domain segmentation [1.5393913074555419]
SegCLRは、さまざまなドメインにまたがるイメージのセグメンテーション用に設計された汎用的なフレームワークです。
SegCLRは、ラベル付きデータとラベルなしデータの両方から効果的に学習するために、教師付き学習とコントラスト付き学習を同時に使用する。
3つの多様な臨床データセットを包括的に評価することで、SegCLRの優れた性能を実証する。
論文 参考訳(メタデータ) (2024-05-08T18:10:59Z) - Open-Set Domain Adaptation with Visual-Language Foundation Models [51.49854335102149]
非教師なしドメイン適応(UDA)は、ソースドメインからラベルのないデータを持つターゲットドメインへの知識の転送に非常に効果的であることが証明されている。
オープンセットドメイン適応(ODA)は、トレーニングフェーズ中にこれらのクラスを識別する潜在的なソリューションとして登場した。
論文 参考訳(メタデータ) (2023-07-30T11:38:46Z) - Test-time Adaptation in the Dynamic World with Compound Domain Knowledge
Management [75.86903206636741]
テスト時間適応(TTA)により、モデルは新しい環境に適応し、テスト時間中にパフォーマンスを向上させることができる。
TTAのいくつかの研究は、継続的に変化する環境において、有望な適応性能を示している。
本稿ではまず,複合ドメイン知識管理を用いた堅牢なTTAフレームワークを提案する。
次に、ソースと現在のターゲットドメイン間のドメイン類似性を用いて適応率を変調する新しい正規化を考案する。
論文 参考訳(メタデータ) (2022-12-16T09:02:01Z) - Domain Generalisation for Object Detection under Covariate and Concept Shift [10.32461766065764]
ドメインの一般化は、ドメイン固有の特徴を抑えながら、ドメイン不変の機能の学習を促進することを目的としている。
オブジェクト検出のためのドメイン一般化手法を提案し, オブジェクト検出アーキテクチャに適用可能な最初のアプローチを提案する。
論文 参考訳(メタデータ) (2022-03-10T11:14:18Z) - Source-Free Open Compound Domain Adaptation in Semantic Segmentation [99.82890571842603]
SF-OCDAでは、ターゲットモデルを学習するために、ソース事前訓練されたモデルとターゲットデータのみが利用可能である。
そこで我々は,Cross-Patch Style Swap (CPSS)を提案する。
提案手法は,C-Drivingデータセット上で最先端の結果を生成する。
論文 参考訳(メタデータ) (2021-06-07T08:38:41Z) - Instance Level Affinity-Based Transfer for Unsupervised Domain
Adaptation [74.71931918541748]
ILA-DAと呼ばれる適応中のソースからターゲットへの転送に対するインスタンス親和性に基づく基準を提案する。
まず、ソースとターゲットをまたいだ類似および異種サンプルを抽出し、マルチサンプルのコントラスト損失を利用してドメインアライメントプロセスを駆動する信頼性が高く効率的な手法を提案する。
ILA-DAの有効性は、様々なベンチマークデータセットに対する一般的なドメイン適応手法よりも精度が一貫した改善を観察することによって検証する。
論文 参考訳(メタデータ) (2021-04-03T01:33:14Z) - Adaptively-Accumulated Knowledge Transfer for Partial Domain Adaptation [66.74638960925854]
部分ドメイン適応(PDA)は、ソースドメインラベル空間がターゲットドメインを置き換えるとき、現実的で困難な問題を扱う。
本稿では,2つの領域にまたがる関連カテゴリを整合させる適応的知識伝達フレームワーク(A$2KT)を提案する。
論文 参考訳(メタデータ) (2020-08-27T00:53:43Z) - Cross-domain Detection via Graph-induced Prototype Alignment [114.8952035552862]
カテゴリレベルのドメインアライメントを求めるグラフ誘発プロトタイプアライメント(GPA)フレームワークを提案する。
さらに,クラス不均衡がドメイン適応に与える影響を軽減するために,クラス重み付きコントラスト損失を設計する。
我々のアプローチは、既存の手法よりも顕著なマージンで優れています。
論文 参考訳(メタデータ) (2020-03-28T17:46:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。