論文の概要: Semantic Distribution-aware Contrastive Adaptation for Semantic
Segmentation
- arxiv url: http://arxiv.org/abs/2105.05013v1
- Date: Tue, 11 May 2021 13:21:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-12 13:55:28.715034
- Title: Semantic Distribution-aware Contrastive Adaptation for Semantic
Segmentation
- Title(参考訳): semantic distribution-aware contrastive adaptation for semantic segmentation (特集 セマンティクス・セグメンテーション)
- Authors: Shuang Li, Binhui Xie, Bin Zang, Chi Harold Liu, Xinjing Cheng,
Ruigang Yang and Guoren Wang
- Abstract要約: ドメイン適応セマンティックセグメンテーション(ドメイン適応セマンティックセグメンテーション)とは、特定のソースドメインのアノテーションだけで特定のターゲットドメイン上で予測を行うことを指す。
画素ワイド表示アライメントを可能にする意味分布対応コントラスト適応アルゴリズムを提案する。
複数のベンチマークでSDCAを評価し、既存のアルゴリズムを大幅に改善します。
- 参考スコア(独自算出の注目度): 50.621269117524925
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Domain adaptive semantic segmentation refers to making predictions on a
certain target domain with only annotations of a specific source domain.
Current state-of-the-art works suggest that performing category alignment can
alleviate domain shift reasonably. However, they are mainly based on
image-to-image adversarial training and little consideration is given to
semantic variations of an object among images, failing to capture a
comprehensive picture of different categories. This motivates us to explore a
holistic representative, the semantic distribution from each category in source
domain, to mitigate the problem above. In this paper, we present semantic
distribution-aware contrastive adaptation algorithm that enables pixel-wise
representation alignment under the guidance of semantic distributions.
Specifically, we first design a pixel-wise contrastive loss by considering the
correspondences between semantic distributions and pixel-wise representations
from both domains. Essentially, clusters of pixel representations from the same
category should cluster together and those from different categories should
spread out. Next, an upper bound on this formulation is derived by involving
the learning of an infinite number of (dis)similar pairs, making it efficient.
Finally, we verify that SDCA can further improve segmentation accuracy when
integrated with the self-supervised learning. We evaluate SDCA on multiple
benchmarks, achieving considerable improvements over existing algorithms.The
code is publicly available at https://github.com/BIT-DA/SDCA
- Abstract(参考訳): ドメイン適応セマンティックセグメンテーション(ドメイン適応セマンティックセグメンテーション)とは、特定のソースドメインのアノテーションだけで特定のターゲットドメイン上で予測を行うことを指す。
現在の最先端の研究は、カテゴリアライメントの実行がドメインシフトを合理的に緩和することを示唆している。
しかし、主に画像と画像の敵対的訓練に基づいており、画像間のオブジェクトの意味的バリエーションについてはほとんど考慮されておらず、異なるカテゴリの包括的画像を捉えていない。
これは、上記の問題を緩和するために、ソースドメインの各カテゴリのセマンティックな分布である全体論的な代表を探索する動機となる。
本稿では,意味分布の指導の下で画素ワイドな表現アライメントを可能にする意味分布対応コントラスト適応アルゴリズムを提案する。
具体的には,両領域間の意味的分布と画素的表現の対応を考慮し,画素単位のコントラスト損失をまず設計する。
基本的には、同じカテゴリのピクセル表現のクラスタがクラスタ化され、異なるカテゴリのクラスタが分散する。
次に、この定式化上の上限は、無限個の(dis)類似のペアの学習を伴って導出され、効率的である。
最後に,SDCAが自己教師付き学習と統合した場合のセグメンテーション精度をさらに向上できることを示す。
我々はSDCAを複数のベンチマークで評価し、既存のアルゴリズムよりも大幅に改善し、https://github.com/BIT-DA/SDCAで公開されている。
関連論文リスト
- SSA-Seg: Semantic and Spatial Adaptive Pixel-level Classifier for Semantic Segmentation [11.176993272867396]
本稿ではセマンティック・空間適応(SSA-Seg)を提案し,セマンティックセグメンテーションの課題に対処する。
具体的には、固定されたプロトタイプから得られた粗いマスクを用いて、テスト画像のセマンティック領域と空間領域の中心に向けて固定されたプロトタイプを調整する。
その結果,提案したSSA-Segは,計算コストを最小限に抑えながら,ベースラインモデルのセグメンテーション性能を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2024-05-10T15:14:23Z) - I2F: A Unified Image-to-Feature Approach for Domain Adaptive Semantic
Segmentation [55.633859439375044]
意味的セグメンテーションのための教師なしドメイン適応(UDA)は、重いアノテーション作業から人々を解放する有望なタスクである。
この問題に対処する主要なアイデアは、画像レベルと特徴レベルの両方を共同で実行することである。
本稿では,画像レベルと特徴レベルを統一したセマンティックセグメンテーションのための新しいUDAパイプラインを提案する。
論文 参考訳(メタデータ) (2023-01-03T15:19:48Z) - Unsupervised Domain Adaptation for Semantic Segmentation using One-shot
Image-to-Image Translation via Latent Representation Mixing [9.118706387430883]
超高解像度画像のセマンティックセグメンテーションのための新しい教師なし領域適応法を提案する。
潜在コンテンツ表現をドメイン間で混合するエンコーダ・デコーダの原理に基づいて,画像から画像への変換パラダイムを提案する。
都市間比較実験により,提案手法は最先端領域適応法より優れていることが示された。
論文 参考訳(メタデータ) (2022-12-07T18:16:17Z) - SePiCo: Semantic-Guided Pixel Contrast for Domain Adaptive Semantic
Segmentation [52.62441404064957]
ドメイン適応セマンティックセグメンテーションは、ラベル付きソースドメインでトレーニングされたモデルを利用することで、ラベル付きターゲットドメイン上で満足のいく密度の予測を試みる。
多くの手法は、ノイズの多い擬似ラベルを緩和する傾向があるが、類似のセマンティックな概念を持つクロスドメインピクセル間の固有の接続を無視する。
本稿では,個々の画素のセマンティックな概念を強調する一段階適応フレームワークSePiCoを提案する。
論文 参考訳(メタデータ) (2022-04-19T11:16:29Z) - SPCL: A New Framework for Domain Adaptive Semantic Segmentation via
Semantic Prototype-based Contrastive Learning [6.705297811617307]
ドメイン適応は、ラベル付けされたソースドメインからラベル付けされていないターゲットドメインに知識を転送するのに役立ちます。
本稿では,クラスアライメントを微粒化するための新しい意味的プロトタイプに基づくコントラスト学習フレームワークを提案する。
我々の手法は実装が容易であり、最先端の手法と比較して優れた結果が得られる。
論文 参考訳(メタデータ) (2021-11-24T09:26:07Z) - More Separable and Easier to Segment: A Cluster Alignment Method for
Cross-Domain Semantic Segmentation [41.81843755299211]
上記の問題を緩和するために,ドメイン仮定の近接性に基づく新しいUDAセマンティックセマンティックセマンティクス手法を提案する。
具体的には、同じ意味を持つクラスタピクセルにプロトタイプクラスタリング戦略を適用し、ターゲットドメインピクセル間の関連付けをより良く維持します。
GTA5とSynthiaで行った実験は,本法の有効性を実証した。
論文 参考訳(メタデータ) (2021-05-07T10:24:18Z) - Pixel-Level Cycle Association: A New Perspective for Domain Adaptive
Semantic Segmentation [169.82760468633236]
本稿では,ソースとターゲットの画素ペア間の画素レベルサイクルの関連性を構築することを提案する。
我々の手法は1段階のエンドツーエンドで訓練でき、追加のパラメータは導入しない。
論文 参考訳(メタデータ) (2020-10-31T00:11:36Z) - Affinity Space Adaptation for Semantic Segmentation Across Domains [57.31113934195595]
本稿では,意味的セグメンテーションにおける教師なしドメイン適応(UDA)の問題に対処する。
ソースドメインとターゲットドメインが不変なセマンティック構造を持つという事実に触発され、ドメイン間におけるそのような不変性を活用することを提案する。
親和性空間適応戦略として,親和性空間の洗浄と親和性空間アライメントという2つの方法を開発した。
論文 参考訳(メタデータ) (2020-09-26T10:28:11Z) - Simultaneous Semantic Alignment Network for Heterogeneous Domain
Adaptation [67.37606333193357]
本稿では,カテゴリ間の相関を同時に利用し,各カテゴリ毎のセントロイドを整列させるために,aSimultaneous Semantic Alignment Network (SSAN)を提案する。
対象の擬似ラベルを利用することで、各カテゴリの特徴表現を整列させるために、ロバストな三重項中心のアライメント機構を明示的に適用する。
テキスト・ツー・イメージ、画像・画像・テキスト・ツー・テキストにわたる様々なHDAタスクの実験は、最先端のHDA手法に対するSSANの優位性を検証することに成功した。
論文 参考訳(メタデータ) (2020-08-04T16:20:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。