論文の概要: Universal Domain Adaptation for Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2505.22458v1
- Date: Wed, 28 May 2025 15:14:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-29 17:35:50.684784
- Title: Universal Domain Adaptation for Semantic Segmentation
- Title(参考訳): セマンティックセグメンテーションのためのユニバーサルドメイン適応
- Authors: Seun-An Choe, Keon-Hee Park, Jinwoo Choi, Gyeong-Moon Park,
- Abstract要約: セマンティックセグメンテーションのための教師なしドメイン適応(UDA-SS)は、ラベル付きソースデータからラベル付きターゲットデータへの知識の転送を目的としている。
従来のUDA-SS手法では、ソースドメインとターゲットドメインのカテゴリ設定が知られているが、現実のシナリオでは非現実的である。
セマンティック (UniDA-SS) のためのユニバーサルドメイン適応を提案し, カテゴリ設定の事前知識を必要とせず, 頑健な適応を実現する。
- 参考スコア(独自算出の注目度): 6.860995924860749
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Unsupervised domain adaptation for semantic segmentation (UDA-SS) aims to transfer knowledge from labeled source data to unlabeled target data. However, traditional UDA-SS methods assume that category settings between source and target domains are known, which is unrealistic in real-world scenarios. This leads to performance degradation if private classes exist. To address this limitation, we propose Universal Domain Adaptation for Semantic Segmentation (UniDA-SS), achieving robust adaptation even without prior knowledge of category settings. We define the problem in the UniDA-SS scenario as low confidence scores of common classes in the target domain, which leads to confusion with private classes. To solve this problem, we propose UniMAP: UniDA-SS with Image Matching and Prototype-based Distinction, a novel framework composed of two key components. First, Domain-Specific Prototype-based Distinction (DSPD) divides each class into two domain-specific prototypes, enabling finer separation of domain-specific features and enhancing the identification of common classes across domains. Second, Target-based Image Matching (TIM) selects a source image containing the most common-class pixels based on the target pseudo-label and pairs it in a batch to promote effective learning of common classes. We also introduce a new UniDA-SS benchmark and demonstrate through various experiments that UniMAP significantly outperforms baselines. The code is available at \href{https://github.com/KU-VGI/UniMAP}{this https URL}.
- Abstract(参考訳): セマンティックセグメンテーションのための教師なしドメイン適応(UDA-SS)は、ラベル付きソースデータからラベル付きターゲットデータへの知識の転送を目的としている。
しかし、従来のUDA-SS手法は、実際のシナリオでは非現実的であるソースドメインとターゲットドメインのカテゴリ設定が知られていると仮定する。
これにより、プライベートクラスが存在する場合、パフォーマンスが低下する。
この制限に対処するために,カテゴリ設定の事前知識を必要とせずに,堅牢な適応を実現するユニバーサルドメイン適応(UniDA-SS)を提案する。
我々は、UniDA-SSシナリオにおける問題を、対象ドメイン内の共通クラスの信頼性の低いスコアとして定義し、プライベートクラスと混同する。
この問題を解決するために,UniMAP: Image Matching と Prototype-based Distinction を併用した UniDA-SS を提案する。
まず、Domain-Specific Prototype-based Distinction (DSPD)は、各クラスを2つのドメイン固有のプロトタイプに分割し、ドメイン固有の機能をより細かく分離し、ドメイン間の共通クラスの識別を強化する。
第2に、ターゲットベース画像マッチング(TIM)は、ターゲットの擬似ラベルに基づいて最も一般的なクラスの画素を含むソース画像を選択し、それをバッチに組み合わせて、共通クラスの効果的な学習を促進する。
また、新しいUniDA-SSベンチマークを導入し、UniMAPがベースラインを大幅に上回ることを示す様々な実験を行った。
コードは \href{https://github.com/KU-VGI/UniMAP}{this https URL} で公開されている。
関連論文リスト
- Tackling Dimensional Collapse toward Comprehensive Universal Domain Adaptation [11.875619863954238]
Universal Domain Adaptation (UniDA)は、共有サブセットを除いて、ターゲットクラスがソースクラスと任意に異なる可能性のある、教師なしのドメイン適応に対処する。
重要なアプローチである部分的ドメインマッチング(PDM)は、共有クラスのみをアライメントするが、多くのソースクラスがターゲットドメインに存在しない極端なケースで苦労し、ソースデータのみをトレーニングする最も単純なベースラインを過小評価する。
本稿では,学習表現の内在的構造を維持するために,ラベルのない対象データに基づいて,現代の自己教師学習(SSL)におけるアライメントと統一性を共同で活用することを提案する。
論文 参考訳(メタデータ) (2024-10-15T04:51:37Z) - Open-Set Domain Adaptation for Semantic Segmentation [6.3951361316638815]
対象ドメインが未知のクラスを含むセマンティック(OSDA-SS)を初めて導入する。
これらの問題に対処するため,BUS を作成したBundary and Unknown Shape-Aware Open-set Domain adaptationを提案する。
我々のBUSは、新しい拡張浸食に基づくコントラスト損失を用いて、未知のクラスと未知のクラスの境界を正確に識別することができる。
論文 参考訳(メタデータ) (2024-05-30T09:55:19Z) - Unified Optimal Transport Framework for Universal Domain Adaptation [27.860165056943796]
Universal Domain Adaptation (UniDA) は、ソースドメインからターゲットドメインに、ラベルセットに制約を加えることなく知識を転送することを目的としている。
既存のほとんどの手法では、共通サンプルを検出するために手動で指定または手動のしきい値を必要とする。
我々は、これらの問題を統一されたフレームワーク、すなわちUniOTで処理するために、最適なトランスポート(OT)を提案する。
論文 参考訳(メタデータ) (2022-10-31T05:07:09Z) - Prototypical Contrast Adaptation for Domain Adaptive Semantic
Segmentation [52.63046674453461]
プロトタイプ・コントラスト適応(Prototypeal Contrast Adaptation, ProCA)は、教師なしドメイン適応セマンティックセマンティックセグメンテーションのための対照的な学習法である。
ProCAはクラス間の情報をクラスワイドプロトタイプに組み込み、適応のためにクラス中心の分散アライメントを採用する。
論文 参考訳(メタデータ) (2022-07-14T04:54:26Z) - Discover, Hallucinate, and Adapt: Open Compound Domain Adaptation for
Semantic Segmentation [91.30558794056056]
意味的セグメンテーションのための教師なしドメイン適応(UDA)が近年注目を集めている。
我々は,発見,幻覚,適応の3つの主要な設計原則に基づく新しいフレームワークを提案する。
我々は、標準ベンチマークGTAからC自動運転へのソリューションの評価を行い、新しい最先端の結果を得た。
論文 参考訳(メタデータ) (2021-10-08T13:20:09Z) - Cross-domain Contrastive Learning for Unsupervised Domain Adaptation [108.63914324182984]
教師なしドメイン適応(Unsupervised domain adapt、UDA)は、完全にラベル付けされたソースドメインから異なるラベル付けされていないターゲットドメインに学習した知識を転送することを目的としている。
対照的な自己教師型学習に基づいて、トレーニングとテストセット間のドメインの相違を低減するために、機能を整列させます。
論文 参考訳(メタデータ) (2021-06-10T06:32:30Z) - OVANet: One-vs-All Network for Universal Domain Adaptation [78.86047802107025]
既存のメソッドは、検証または未知のサンプルの事前定義された比率に基づいて未知のサンプルを拒否するしきい値を手動で設定します。
本稿では,ソースサンプルを用いて閾値を学習し,対象領域に適応する手法を提案する。
私たちの考えは、ソースドメインの最小クラス間距離は、ターゲットの既知のか未知かを決定するための良いしきい値であるべきです。
論文 参考訳(メタデータ) (2021-04-07T18:36:31Z) - Prototypical Cross-domain Self-supervised Learning for Few-shot
Unsupervised Domain Adaptation [91.58443042554903]
FUDA(Unsupervised Domain Adaptation)のためのPCS(Prototypical Cross-Domain Self-Supervised Learning)フレームワークを提案する。
PCSは、クロスドメインのローレベルな機能アライメントを行うだけでなく、ドメイン間の共有埋め込み空間におけるセマンティック構造をエンコードおよびアライメントする。
最新の手法と比較して、pcsは、fuda上の異なるドメインペアの平均分類精度を10.5%、office、office-home、visda-2017、domainnetで3.5%、9.0%、13.2%改善している。
論文 参考訳(メタデータ) (2021-03-31T02:07:42Z) - Learning Target Domain Specific Classifier for Partial Domain Adaptation [85.71584004185031]
非教師付きドメイン適応(UDA)は、ラベル付きソースドメインからラベル付きターゲットドメインに知識を転送する際の分散不一致を低減することを目的としている。
本稿では,ターゲットラベル空間をソースラベル空間に仮定する,より現実的なUDAシナリオに焦点を当てる。
論文 参考訳(メタデータ) (2020-08-25T02:28:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。