論文の概要: Consistency Regularization with High-dimensional Non-adversarial
Source-guided Perturbation for Unsupervised Domain Adaptation in Segmentation
- arxiv url: http://arxiv.org/abs/2009.08610v1
- Date: Fri, 18 Sep 2020 03:26:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-17 03:08:26.998522
- Title: Consistency Regularization with High-dimensional Non-adversarial
Source-guided Perturbation for Unsupervised Domain Adaptation in Segmentation
- Title(参考訳): 非教師なし領域適応のための高次元非反転音源誘導摂動による一貫性正規化
- Authors: Kaihong Wang, Chenhongyi Yang, Margrit Betke
- Abstract要約: BiSIDAは、未ラベルのターゲットデータセットからの情報を効率的に活用するために、一貫性の正則化を採用している。
BiSIDAは、一般的に使われている2つの合成-実領域適応ベンチマーク上で、新しい最先端を実現する。
- 参考スコア(独自算出の注目度): 15.428323201750144
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised domain adaptation for semantic segmentation has been intensively
studied due to the low cost of the pixel-level annotation for synthetic data.
The most common approaches try to generate images or features mimicking the
distribution in the target domain while preserving the semantic contents in the
source domain so that a model can be trained with annotations from the latter.
However, such methods highly rely on an image translator or feature extractor
trained in an elaborated mechanism including adversarial training, which brings
in extra complexity and instability in the adaptation process. Furthermore,
these methods mainly focus on taking advantage of the labeled source dataset,
leaving the unlabeled target dataset not fully utilized. In this paper, we
propose a bidirectional style-induced domain adaptation method, called BiSIDA,
that employs consistency regularization to efficiently exploit information from
the unlabeled target domain dataset, requiring only a simple neural style
transfer model. BiSIDA aligns domains by not only transferring source images
into the style of target images but also transferring target images into the
style of source images to perform high-dimensional perturbation on the
unlabeled target images, which is crucial to the success in applying
consistency regularization in segmentation tasks. Extensive experiments show
that our BiSIDA achieves new state-of-the-art on two commonly-used
synthetic-to-real domain adaptation benchmarks: GTA5-to-CityScapes and
SYNTHIA-to-CityScapes.
- Abstract(参考訳): セマンティックセグメンテーションのための教師なしドメイン適応は、合成データに対するピクセルレベルのアノテーションの低コストのため、集中的に研究されている。
最も一般的なアプローチは、ソースドメインのセマンティックコンテンツを保持しながら、ターゲットドメインの分布を模倣したイメージや特徴を生成して、モデルが後者のアノテーションでトレーニングできるようにします。
しかし、このような手法は、画像翻訳者や特徴抽出器を、敵の訓練を含む精巧なメカニズムで訓練することで、適応プロセスにさらに複雑さと不安定をもたらす。
さらに、これらの手法は主にラベル付きソースデータセットの活用に焦点を当てており、ラベルなしターゲットデータセットは十分に利用されていない。
本稿では,不ラベルな対象領域データセットからの情報を効率的に活用し,単純なニューラルスタイル転送モデルのみを必要とするbisida(bisida)という双方向型ドメイン適応手法を提案する。
bisidaは、ソースイメージをターゲットイメージのスタイルに転送するだけでなく、ターゲットイメージをソースイメージのスタイルに転送して、ラベルなしのターゲットイメージに対して高次元の摂動を実行することによって、ドメインを調整する。
GTA5-to-CityScapesとSynTHIA-to-CityScapesという2つの一般的な合成ドメイン適応ベンチマークに対して,我々のBiSIDAが新たな最先端技術を実現していることを示す。
関連論文リスト
- Adapt Anything: Tailor Any Image Classifiers across Domains And
Categories Using Text-to-Image Diffusion Models [82.95591765009105]
我々は,現代テキスト・画像拡散モデルが,ドメインやカテゴリ間でタスク適応型画像分類器をカスタマイズできるかどうかを検討することを目的とする。
対象のテキストプロンプトから派生したカテゴリラベルを用いた画像合成には,1つのオフ・ザ・シェルフテキスト・ツー・イメージモデルのみを用いる。
論文 参考訳(メタデータ) (2023-10-25T11:58:14Z) - Improving Diversity in Zero-Shot GAN Adaptation with Semantic Variations [61.132408427908175]
0ショットのGAN適応は、よく訓練されたジェネレータを再利用して、目に見えないターゲットドメインの画像を合成することを目的としている。
実際の画像の代わりに1つの代表的テキスト機能しか持たないため、合成された画像は徐々に多様性を損なう。
そこで本研究では,CLIP空間における対象テキストの意味的変化を見つけるための新しい手法を提案する。
論文 参考訳(メタデータ) (2023-08-21T08:12:28Z) - One-shot Unsupervised Domain Adaptation with Personalized Diffusion
Models [15.590759602379517]
ラベル付きソースドメインからターゲットドメインへのセグメンテーションモデルの適用は、ドメイン適応において最も難しい問題の1つである。
テキストと画像の拡散モデルを用いて、写真リアル画像を用いた合成ターゲットデータセットを生成する。
実験の結果,本手法は最先端OSUDA法を最大7.1%超えることがわかった。
論文 参考訳(メタデータ) (2023-03-31T14:16:38Z) - Contrastive Model Adaptation for Cross-Condition Robustness in Semantic
Segmentation [58.17907376475596]
意味的セグメンテーションのための正規-逆条件モデル適応について検討する。
提案手法は, コントラスト学習を通じて条件不変の特徴を学習するために, このような画像ペアを利用する。
いくつかの正規-逆適応ベンチマークにおけるモデル適応のための最先端セマンティックセマンティックセマンティクス性能を実現する。
論文 参考訳(メタデータ) (2023-03-09T11:48:29Z) - Unsupervised Domain Adaptation for Semantic Segmentation using One-shot
Image-to-Image Translation via Latent Representation Mixing [9.118706387430883]
超高解像度画像のセマンティックセグメンテーションのための新しい教師なし領域適応法を提案する。
潜在コンテンツ表現をドメイン間で混合するエンコーダ・デコーダの原理に基づいて,画像から画像への変換パラダイムを提案する。
都市間比較実験により,提案手法は最先端領域適応法より優れていることが示された。
論文 参考訳(メタデータ) (2022-12-07T18:16:17Z) - Style Mixing and Patchwise Prototypical Matching for One-Shot
Unsupervised Domain Adaptive Semantic Segmentation [21.01132797297286]
ワンショットの教師なしドメイン適応では、セグメンタはトレーニング中にラベルなしのターゲットイメージを1つしか見ることができない。
このような計算負担を効果的に軽減できるOSUDA法を提案する。
提案手法は,ドメイン適応型セマンティックセグメンテーションのための2つの一般的なベンチマーク上で,最先端性能を実現する。
論文 参考訳(メタデータ) (2021-12-09T02:47:46Z) - Source-Free Domain Adaptive Fundus Image Segmentation with Denoised
Pseudo-Labeling [56.98020855107174]
ドメイン適応は通常、ソースドメインデータにアクセスして、ターゲットデータとのドメインアライメントのために配布情報を利用する必要があります。
多くの実世界のシナリオでは、プライバシの問題により、ターゲットドメインのモデル適応中にソースデータがアクセスできない場合がある。
本稿では,本問題に対する新たな擬似ラベル付け手法を提案する。
論文 参考訳(メタデータ) (2021-09-19T06:38:21Z) - Phase Consistent Ecological Domain Adaptation [76.75730500201536]
意味的セグメンテーション(意味的セグメンテーション)の課題に焦点をあてる。そこでは、注釈付き合成データが多用されるが、実際のデータへのアノテートは困難である。
視覚心理学に触発された最初の基準は、2つの画像領域間の地図が位相保存であることである。
第2の基準は、照明剤や撮像センサーの特性に関わらず、その画像に現れる環境統計、またはシーン内の規則を活用することを目的としている。
論文 参考訳(メタデータ) (2020-04-10T06:58:03Z) - Alleviating Semantic-level Shift: A Semi-supervised Domain Adaptation
Method for Semantic Segmentation [97.8552697905657]
このタスクの重要な課題は、ソースとターゲットドメイン間のデータ分散の相違を緩和する方法である。
本稿では,グローバルな視点とローカルな視点の両方から分布の整合性を促進できるASS(Alleviating Semantic-level Shift)を提案する。
GTA5、Cityscapes、Synthia、Cityscapesの2つのドメイン適応タスクにASSを適用します。
論文 参考訳(メタデータ) (2020-04-02T03:25:05Z) - Label-Driven Reconstruction for Domain Adaptation in Semantic
Segmentation [43.09068177612067]
教師なしのドメイン適応は、セマンティックセグメンテーションにおけるピクセルワイズアノテーションの必要性を軽減することができる。
最も一般的な戦略の1つは、ソースドメインからターゲットドメインに画像を変換し、敵対学習を用いて特徴空間内の限界分布を調整することである。
本稿では、画像翻訳バイアスを緩和し、ドメイン間機能を同じカテゴリに整合させる革新的なフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-10T10:06:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。