論文の概要: Style Mixing and Patchwise Prototypical Matching for One-Shot
Unsupervised Domain Adaptive Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2112.04665v1
- Date: Thu, 9 Dec 2021 02:47:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-10 15:01:35.493122
- Title: Style Mixing and Patchwise Prototypical Matching for One-Shot
Unsupervised Domain Adaptive Semantic Segmentation
- Title(参考訳): ワンショット非教師付きドメイン適応意味セグメンテーションのためのスタイル混合とパッチワイズ型マッチング
- Authors: Xinyi Wu and Zhenyao Wu and Yuhang Lu and Lili Ju and Song Wang
- Abstract要約: ワンショットの教師なしドメイン適応では、セグメンタはトレーニング中にラベルなしのターゲットイメージを1つしか見ることができない。
このような計算負担を効果的に軽減できるOSUDA法を提案する。
提案手法は,ドメイン適応型セマンティックセグメンテーションのための2つの一般的なベンチマーク上で,最先端性能を実現する。
- 参考スコア(独自算出の注目度): 21.01132797297286
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we tackle the problem of one-shot unsupervised domain
adaptation (OSUDA) for semantic segmentation where the segmentors only see one
unlabeled target image during training. In this case, traditional unsupervised
domain adaptation models usually fail since they cannot adapt to the target
domain with over-fitting to one (or few) target samples. To address this
problem, existing OSUDA methods usually integrate a style-transfer module to
perform domain randomization based on the unlabeled target sample, with which
multiple domains around the target sample can be explored during training.
However, such a style-transfer module relies on an additional set of images as
style reference for pre-training and also increases the memory demand for
domain adaptation. Here we propose a new OSUDA method that can effectively
relieve such computational burden. Specifically, we integrate several
style-mixing layers into the segmentor which play the role of style-transfer
module to stylize the source images without introducing any learned parameters.
Moreover, we propose a patchwise prototypical matching (PPM) method to weighted
consider the importance of source pixels during the supervised training to
relieve the negative adaptation. Experimental results show that our method
achieves new state-of-the-art performance on two commonly used benchmarks for
domain adaptive semantic segmentation under the one-shot setting and is more
efficient than all comparison approaches.
- Abstract(参考訳): 本稿では,セグメンタが学習中にラベルなしの目標画像のみを表示するセマンティックセグメンテーションのための,ワンショット非教師なし領域適応(osuda)の問題に取り組む。
この場合、従来の教師なしドメイン適応モデルは、1つの(または少数の)ターゲットサンプルに過度に適合するターゲットドメインに適応できないため、通常失敗する。
この問題に対処するため、既存のOSUDAメソッドは、通常、トレーニング中にターゲットサンプル周辺の複数のドメインを探索する未ラベルのターゲットサンプルに基づいてドメインランダム化を行うためにスタイル転送モジュールを統合する。
しかし、このようなスタイル転送モジュールは、事前トレーニングのためのスタイル参照として追加のイメージセットに依存しており、ドメイン適応のためのメモリ要求も増大する。
本稿では,計算負荷を効果的に軽減できるosuda法を提案する。
具体的には,複数のスタイルミキシングレイヤをセグメンタに統合し,スタイルトランスファーモジュールの役割を担い,学習パラメータを導入せずにソースコードをスタイリングする。
さらに、教師付きトレーニングにおいて、ソース画素の重要性を重み付けし、負適応を緩和するパッチワイズプロトタイプマッチング(PPM)手法を提案する。
実験結果から,本手法はドメイン適応型セマンティックセマンティックセグメンテーションを1ショット設定で2つのベンチマークで評価し,全ての比較手法よりも効率的であることがわかった。
関連論文リスト
- Spectral Adversarial MixUp for Few-Shot Unsupervised Domain Adaptation [72.70876977882882]
臨床応用においては、トレーニング画像(ソース領域)とテスト画像(ターゲット領域)が異なる分布下にある場合、ドメインシフトは一般的な問題である。
本稿では,Few-Shot Unsupervised Domain Adaptation (FSUDA) の新たな手法を提案する。
論文 参考訳(メタデータ) (2023-09-03T16:02:01Z) - I2F: A Unified Image-to-Feature Approach for Domain Adaptive Semantic
Segmentation [55.633859439375044]
意味的セグメンテーションのための教師なしドメイン適応(UDA)は、重いアノテーション作業から人々を解放する有望なタスクである。
この問題に対処する主要なアイデアは、画像レベルと特徴レベルの両方を共同で実行することである。
本稿では,画像レベルと特徴レベルを統一したセマンティックセグメンテーションのための新しいUDAパイプラインを提案する。
論文 参考訳(メタデータ) (2023-01-03T15:19:48Z) - Unsupervised Domain Adaptation for Semantic Segmentation using One-shot
Image-to-Image Translation via Latent Representation Mixing [9.118706387430883]
超高解像度画像のセマンティックセグメンテーションのための新しい教師なし領域適応法を提案する。
潜在コンテンツ表現をドメイン間で混合するエンコーダ・デコーダの原理に基づいて,画像から画像への変換パラダイムを提案する。
都市間比較実験により,提案手法は最先端領域適応法より優れていることが示された。
論文 参考訳(メタデータ) (2022-12-07T18:16:17Z) - Continual Unsupervised Domain Adaptation for Semantic Segmentation using
a Class-Specific Transfer [9.46677024179954]
セグメンテーションモデルは 目に見えない領域に一般化しません
2つのクラス条件のAdaIN層を組み込んだ軽量なスタイル転送フレームワークを提案する。
合成シーケンスに対する我々のアプローチを広く検証し、さらに実領域からなる挑戦的なシーケンスを提案する。
論文 参考訳(メタデータ) (2022-08-12T21:30:49Z) - Domain-invariant Prototypes for Semantic Segmentation [30.932130453313537]
ドメイン適応型セマンティックセグメンテーションのためのドメイン不変のプロトタイプを学習する。
本手法は,1段階の訓練のみを伴い,大規模な未注釈対象画像に対してトレーニングを行う必要はない。
論文 参考訳(メタデータ) (2022-08-12T02:21:05Z) - Labeling Where Adapting Fails: Cross-Domain Semantic Segmentation with
Point Supervision via Active Selection [81.703478548177]
セマンティックセグメンテーションに特化したトレーニングモデルは、大量のピクセル単位のアノテートデータを必要とする。
教師なしドメイン適応手法は、ラベル付きソースとラベルなしターゲットデータとの間の特徴分布の整合化を目的としている。
以前の研究は、対象データにスパース単一ピクセルアノテーションという形で、人間のインタラクションをこのプロセスに含めようと試みていた。
アクティブな選択による注釈付きポイントを用いた意味的セグメンテーションのための新しいドメイン適応フレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-01T01:52:28Z) - Stagewise Unsupervised Domain Adaptation with Adversarial Self-Training
for Road Segmentation of Remote Sensing Images [93.50240389540252]
リモートセンシング画像からの道路セグメンテーションは、幅広い応用可能性を持つ課題である。
本稿では,この領域における領域シフト(DS)問題に対処するため,RoadDAと呼ばれる新たな段階的ドメイン適応モデルを提案する。
2つのベンチマーク実験の結果、RoadDAはドメインギャップを効率的に減らし、最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2021-08-28T09:29:14Z) - Semi-Supervised Domain Adaptation with Prototypical Alignment and
Consistency Learning [86.6929930921905]
本稿では,いくつかの対象サンプルがラベル付けされていれば,ドメインシフトに対処するのにどの程度役立つか検討する。
ランドマークの可能性を最大限に追求するために、ランドマークから各クラスのターゲットプロトタイプを計算するプロトタイプアライメント(PA)モジュールを組み込んでいます。
具体的には,ラベル付き画像に深刻な摂動を生じさせ,PAを非自明にし,モデル一般化性を促進する。
論文 参考訳(メタデータ) (2021-04-19T08:46:08Z) - Pixel-Level Cycle Association: A New Perspective for Domain Adaptive
Semantic Segmentation [169.82760468633236]
本稿では,ソースとターゲットの画素ペア間の画素レベルサイクルの関連性を構築することを提案する。
我々の手法は1段階のエンドツーエンドで訓練でき、追加のパラメータは導入しない。
論文 参考訳(メタデータ) (2020-10-31T00:11:36Z) - Adversarial Style Mining for One-Shot Unsupervised Domain Adaptation [43.351728923472464]
One-Shot Unsupervised Domain Adaptationは、適応を学ぶ際に、ラベルなしのターゲットサンプルをひとつだけ利用できると仮定する。
従来の適応手法は、ラベル付けされていないターゲットデータの不足により失敗する傾向にある。
そこで我々は,スタイル転送モジュールとタスク固有モジュールを組み合わせた新しいアドリラルスタイルマイニング手法を提案する。
論文 参考訳(メタデータ) (2020-04-13T16:18:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。