論文の概要: Tackling Dimensional Collapse toward Comprehensive Universal Domain Adaptation
- arxiv url: http://arxiv.org/abs/2410.11271v2
- Date: Tue, 11 Feb 2025 07:18:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-12 14:03:44.403703
- Title: Tackling Dimensional Collapse toward Comprehensive Universal Domain Adaptation
- Title(参考訳): 包括的Universal Domain Adaptationに向けた次元分解
- Authors: Hung-Chieh Fang, Po-Yi Lu, Hsuan-Tien Lin,
- Abstract要約: Universal Domain Adaptation (UniDA)は、共有サブセットを除いて、ターゲットクラスがソースクラスと任意に異なる可能性のある、教師なしのドメイン適応に対処する。
重要なアプローチである部分的ドメインマッチング(PDM)は、共有クラスのみをアライメントするが、多くのソースクラスがターゲットドメインに存在しない極端なケースで苦労し、ソースデータのみをトレーニングする最も単純なベースラインを過小評価する。
本稿では,学習表現の内在的構造を維持するために,ラベルのない対象データに基づいて,現代の自己教師学習(SSL)におけるアライメントと統一性を共同で活用することを提案する。
- 参考スコア(独自算出の注目度): 11.875619863954238
- License:
- Abstract: Universal Domain Adaptation (UniDA) addresses unsupervised domain adaptation where target classes may differ arbitrarily from source ones, except for a shared subset. An important approach, partial domain matching (PDM), aligns only shared classes but struggles in extreme cases where many source classes are absent in the target domain, underperforming the most naive baseline that trains on only source data. In this work, we identify that the failure of PDM for extreme UniDA stems from dimensional collapse (DC) in target representations. To address target DC, we propose to jointly leverage the alignment and uniformity techniques in modern self-supervised learning (SSL) on the unlabeled target data to preserve the intrinsic structure of the learned representations. Our experimental results confirm that SSL consistently advances PDM and delivers new state-of-the-art results across a broader benchmark of UniDA scenarios with different portions of shared classes, representing a crucial step toward truly comprehensive UniDA.
- Abstract(参考訳): Universal Domain Adaptation (UniDA)は、共有サブセットを除いて、ターゲットクラスがソースクラスと任意に異なる可能性のある、教師なしのドメイン適応に対処する。
重要なアプローチである部分的ドメインマッチング(PDM)は、共有クラスのみをアライメントするが、多くのソースクラスがターゲットドメインに存在しない極端なケースで苦労し、ソースデータのみをトレーニングする最も単純なベースラインを過小評価する。
本研究では,極端UniDAにおけるPDMの故障が,対象表現における次元的崩壊(DC)に起因することを確認した。
対象DCに対処するために,学習表現の内在的構造を保存するために,ラベルのない対象データ上での現代の自己教師付き学習(SSL)におけるアライメントと統一性を共同で活用することを提案する。
実験の結果、SSLはPDMを一貫して進歩させ、共有クラスの異なる部分を持つUniDAシナリオのより広範なベンチマークで新しい最先端結果を提供し、真に包括的なUniDAへの重要な一歩であることを確認した。
関連論文リスト
- Universal Semi-Supervised Domain Adaptation by Mitigating Common-Class Bias [16.4249819402209]
我々はUniversal Semi-Supervised Domain Adaptation (UniSSDA)を紹介する。
UniSSDAはUniversal Domain Adaptation (UniDA)とSemi-Supervised Domain Adaptation (SSDA)の交差点にある
疑似ラベルによる共通クラスバイアスの強化を抑えるための,事前誘導型擬似ラベル改善戦略を提案する。
論文 参考訳(メタデータ) (2024-03-17T14:43:47Z) - MLNet: Mutual Learning Network with Neighborhood Invariance for
Universal Domain Adaptation [70.62860473259444]
ユニバーサルドメイン適応(UniDA)は実用的だが難しい問題である。
既存のUniDAメソッドは、ターゲットドメイン内のドメイン内バリエーションを見落としている問題に悩まされる可能性がある。
そこで我々は,UniDA の近傍不変性を考慮した新しい相互学習ネットワーク (MLNet) を提案する。
論文 参考訳(メタデータ) (2023-12-13T03:17:34Z) - SUG: Single-dataset Unified Generalization for 3D Point Cloud
Classification [44.27324696068285]
トレーニング済みのソースモデルが直面する予期せぬ領域差を軽減するために,単一データセット統一一般化(SUG)フレームワークを提案する。
具体的には、まず、学習した表現をドメインに依存しない識別性に制約できるマルチグラニュアルサブドメインアライメント(MSA)法を設計する。
次にSDA(Sample-level Domain-Aware Attention)戦略を示し、異なるサブドメインから簡単に適応できるサンプルを選択的に強化する。
論文 参考訳(メタデータ) (2023-05-16T04:36:04Z) - Dynamic Instance Domain Adaptation [109.53575039217094]
教師なしのドメイン適応に関するほとんどの研究は、各ドメインのトレーニングサンプルがドメインラベルを伴っていると仮定している。
適応的な畳み込みカーネルを持つ動的ニューラルネットワークを開発し、各インスタンスにドメインに依存しない深い特徴を適応させるために、インスタンス適応残差を生成する。
我々のモデルはDIDA-Netと呼ばれ、複数の一般的な単一ソースおよび複数ソースのUDAデータセット上で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-03-09T20:05:54Z) - Decompose to Adapt: Cross-domain Object Detection via Feature
Disentanglement [79.2994130944482]
本研究では,DDF(Domain Disentanglement Faster-RCNN)を設計し,タスク学習のための特徴のソース固有情報を排除した。
DDF法は,グローバルトリプルト・ディアンタングルメント(GTD)モジュールとインスタンス類似性・ディアンタングルメント(ISD)モジュールを用いて,グローバルおよびローカルステージでの機能ディアンタングルを容易にする。
提案手法は,4つのUDAオブジェクト検出タスクにおいて最先端の手法より優れており,広い適用性で有効であることが実証された。
論文 参考訳(メタデータ) (2022-01-06T05:43:01Z) - Semi-supervised Domain Adaptive Structure Learning [72.01544419893628]
半教師付きドメイン適応 (SSDA) は,1) アノテーションの低いデータに過度に適合する手法と,2) ドメイン間の分散シフトの両方を克服しなければならない課題である。
SSLとDAの協調を正規化するための適応型構造学習手法を提案する。
論文 参考訳(メタデータ) (2021-12-12T06:11:16Z) - Joint Distribution Alignment via Adversarial Learning for Domain
Adaptive Object Detection [11.262560426527818]
教師なしのドメイン適応オブジェクト検出は、リッチラベル付きデータで訓練された元のソースドメインから、ラベルなしデータで新しいターゲットドメインに適応することを目的としている。
近年、主流のアプローチは、敵対的学習を通じてこのタスクを実行するが、それでも2つの制限に悩まされている。
上記の課題に対処するために,JADF(Joint Adaptive Detection framework)を提案する。
論文 参考訳(メタデータ) (2021-09-19T00:27:08Z) - CLDA: Contrastive Learning for Semi-Supervised Domain Adaptation [1.2691047660244335]
Unsupervised Domain Adaptation (UDA) は、ラベル付きソース分布とラベル付きターゲット分布との整合を目標とし、ドメイン不変な予測モデルを得る。
半教師付きドメイン適応(CLDA)のためのコントラスト学習フレームワークを提案する。
CLDAは上記のすべてのデータセットに対して最先端の結果を達成する。
論文 参考訳(メタデータ) (2021-06-30T20:23:19Z) - Dual Distribution Alignment Network for Generalizable Person
Re-Identification [174.36157174951603]
ドメイン一般化(DG)は、人物再識別(Re-ID)を扱うための有望なソリューションとして機能する
本稿では、複数のソースドメインの分布を選択的に整列させることにより、この問題に対処するDual Distribution Alignment Network(DDAN)を提案する。
大規模なDomain Generalization Re-ID(DG Re-ID)ベンチマークでDDANを評価した。
論文 参考訳(メタデータ) (2020-07-27T00:08:07Z) - Dual Mixup Regularized Learning for Adversarial Domain Adaptation [19.393393465837377]
教師なしドメイン適応のための二重混合正規化学習(DMRL)法を提案する。
DMRLは、サンプル間の一貫した予測を強化するために分類器をガイドし、潜在空間の内在構造を豊かにする。
4つのドメイン適応ベンチマークに関する一連の実証研究は、我々のアプローチが最先端を実現することを実証している。
論文 参考訳(メタデータ) (2020-07-07T00:24:14Z) - Alleviating Semantic-level Shift: A Semi-supervised Domain Adaptation
Method for Semantic Segmentation [97.8552697905657]
このタスクの重要な課題は、ソースとターゲットドメイン間のデータ分散の相違を緩和する方法である。
本稿では,グローバルな視点とローカルな視点の両方から分布の整合性を促進できるASS(Alleviating Semantic-level Shift)を提案する。
GTA5、Cityscapes、Synthia、Cityscapesの2つのドメイン適応タスクにASSを適用します。
論文 参考訳(メタデータ) (2020-04-02T03:25:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。