論文の概要: Prototypical Contrast Adaptation for Domain Adaptive Semantic
Segmentation
- arxiv url: http://arxiv.org/abs/2207.06654v1
- Date: Thu, 14 Jul 2022 04:54:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-15 13:34:42.609132
- Title: Prototypical Contrast Adaptation for Domain Adaptive Semantic
Segmentation
- Title(参考訳): ドメイン適応意味セグメンテーションのための原型的コントラスト適応
- Authors: Zhengkai Jiang and Yuxi Li and Ceyuan Yang and Peng Gao and Yabiao
Wang and Ying Tai and Chengjie Wang
- Abstract要約: プロトタイプ・コントラスト適応(Prototypeal Contrast Adaptation, ProCA)は、教師なしドメイン適応セマンティックセマンティックセグメンテーションのための対照的な学習法である。
ProCAはクラス間の情報をクラスワイドプロトタイプに組み込み、適応のためにクラス中心の分散アライメントを採用する。
- 参考スコア(独自算出の注目度): 52.63046674453461
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised Domain Adaptation (UDA) aims to adapt the model trained on the
labeled source domain to an unlabeled target domain. In this paper, we present
Prototypical Contrast Adaptation (ProCA), a simple and efficient contrastive
learning method for unsupervised domain adaptive semantic segmentation.
Previous domain adaptation methods merely consider the alignment of the
intra-class representational distributions across various domains, while the
inter-class structural relationship is insufficiently explored, resulting in
the aligned representations on the target domain might not be as easily
discriminated as done on the source domain anymore. Instead, ProCA incorporates
inter-class information into class-wise prototypes, and adopts the
class-centered distribution alignment for adaptation. By considering the same
class prototypes as positives and other class prototypes as negatives to
achieve class-centered distribution alignment, ProCA achieves state-of-the-art
performance on classical domain adaptation tasks, {\em i.e., GTA5 $\to$
Cityscapes \text{and} SYNTHIA $\to$ Cityscapes}. Code is available at
\href{https://github.com/jiangzhengkai/ProCA}{ProCA}
- Abstract(参考訳): Unsupervised Domain Adaptation (UDA)は、ラベル付きソースドメインでトレーニングされたモデルをラベル付きターゲットドメインに適応させることを目的としている。
本稿では,教師なしドメイン適応セマンティックセマンティックセグメンテーションのための簡易かつ効率的なコントラスト学習手法であるPrototypeal Contrast Adaptation(ProCA)を提案する。
従来のドメイン適応法は、クラス間の構造的関係が不十分に探究され、結果として対象ドメインのアライメントは、もはやソースドメインでなされるほど容易に判別できない可能性があるが、様々なドメインにわたるクラス内表現のアライメントを考えるのみである。
代わりに、ProCAはクラス間の情報をクラスワイドプロトタイプに組み込み、適応のためにクラス中心の分散アライメントを採用する。
クラス中心の分布アライメントを達成するために、正のクラスプロトタイプや他のクラスプロトタイプと同じクラスプロトタイプを考慮して、ProCAは古典的なドメイン適応タスク、すなわち GTA5 $\to$ Cityscapes \text{and} SYNTHIA $\to$ Cityscapes} で最先端のパフォーマンスを達成する。
コードは \href{https://github.com/jiangzhengkai/proca}{proca} で入手できる。
関連論文リスト
- Subtype-Aware Dynamic Unsupervised Domain Adaptation [36.996764621968204]
非教師付きドメイン適応(UDA)は、ラベル付きソースドメインからラベルなしのターゲットドメインへの知識伝達に成功している。
そこで本稿では,両ドメインのサブタイプラベルを使わずに,対象ドメインの性能を向上させるために,細粒度サブタイプ認識アライメントを適応的に行う手法を提案する。
論文 参考訳(メタデータ) (2022-08-16T14:02:47Z) - Domain Adaptation via Prompt Learning [39.97105851723885]
Unsupervised Domain Adaption (UDA) は、十分にアノテーションされたソースドメインから学習したモデルをターゲットドメインに適応させることを目的としている。
我々は,Prompt Learning (DAPL) によるドメイン適応という,UDAのための新しいプロンプト学習パラダイムを導入する。
論文 参考訳(メタデータ) (2022-02-14T13:25:46Z) - Cross-domain Contrastive Learning for Unsupervised Domain Adaptation [108.63914324182984]
教師なしドメイン適応(Unsupervised domain adapt、UDA)は、完全にラベル付けされたソースドメインから異なるラベル付けされていないターゲットドメインに学習した知識を転送することを目的としている。
対照的な自己教師型学習に基づいて、トレーニングとテストセット間のドメインの相違を低減するために、機能を整列させます。
論文 参考訳(メタデータ) (2021-06-10T06:32:30Z) - Prototypical Cross-domain Self-supervised Learning for Few-shot
Unsupervised Domain Adaptation [91.58443042554903]
FUDA(Unsupervised Domain Adaptation)のためのPCS(Prototypical Cross-Domain Self-Supervised Learning)フレームワークを提案する。
PCSは、クロスドメインのローレベルな機能アライメントを行うだけでなく、ドメイン間の共有埋め込み空間におけるセマンティック構造をエンコードおよびアライメントする。
最新の手法と比較して、pcsは、fuda上の異なるドメインペアの平均分類精度を10.5%、office、office-home、visda-2017、domainnetで3.5%、9.0%、13.2%改善している。
論文 参考訳(メタデータ) (2021-03-31T02:07:42Z) - Surprisingly Simple Semi-Supervised Domain Adaptation with Pretraining
and Consistency [93.89773386634717]
ビジュアルドメイン適応は、異なるソースドメインで利用可能なラベルを使用して、ターゲットのビジュアルドメインからイメージを分類する学習を含む。
いくつかの目標ラベルが存在する場合、(回転予測による)自己スーパービジョンや整合正則化といった単純な手法が、適切な目標分類器を学習するための対角アライメントなしで有効であることを示す。
我々の事前学習と一貫性(PAC)アプローチは、この半教師付きドメイン適応タスクにおいて、複数のデータセットにまたがる複数の対向的なドメインアライメント手法を超越して、技術精度を達成することができる。
論文 参考訳(メタデータ) (2021-01-29T18:40:17Z) - Classes Matter: A Fine-grained Adversarial Approach to Cross-domain
Semantic Segmentation [95.10255219396109]
クラスレベルの特徴アライメントのための微粒な逆学習戦略を提案する。
ドメイン区別器として機能するだけでなく、クラスレベルでドメインを区別する、きめ細かいドメイン識別器を採用しています。
CCD (Class Center Distance) を用いた解析により, 粒度の細かい対角戦略により, クラスレベルのアライメントが向上することが確認された。
論文 参考訳(メタデータ) (2020-07-17T20:50:59Z) - Cross-domain Detection via Graph-induced Prototype Alignment [114.8952035552862]
カテゴリレベルのドメインアライメントを求めるグラフ誘発プロトタイプアライメント(GPA)フレームワークを提案する。
さらに,クラス不均衡がドメイン適応に与える影響を軽減するために,クラス重み付きコントラスト損失を設計する。
我々のアプローチは、既存の手法よりも顕著なマージンで優れています。
論文 参考訳(メタデータ) (2020-03-28T17:46:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。