論文の概要: Domain-invariant Prototypes for Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2208.06087v1
- Date: Fri, 12 Aug 2022 02:21:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-15 13:24:12.195170
- Title: Domain-invariant Prototypes for Semantic Segmentation
- Title(参考訳): 意味セグメンテーションのためのドメイン不変プロトタイプ
- Authors: Zhengeng Yang, Hongshan Yu, Wei Sun, Li-Cheng, Ajmal Mian
- Abstract要約: ドメイン適応型セマンティックセグメンテーションのためのドメイン不変のプロトタイプを学習する。
本手法は,1段階の訓練のみを伴い,大規模な未注釈対象画像に対してトレーニングを行う必要はない。
- 参考スコア(独自算出の注目度): 30.932130453313537
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Learning has greatly advanced the performance of semantic segmentation,
however, its success relies on the availability of large amounts of annotated
data for training. Hence, many efforts have been devoted to domain adaptive
semantic segmentation that focuses on transferring semantic knowledge from a
labeled source domain to an unlabeled target domain. Existing self-training
methods typically require multiple rounds of training, while another popular
framework based on adversarial training is known to be sensitive to
hyper-parameters. In this paper, we present an easy-to-train framework that
learns domain-invariant prototypes for domain adaptive semantic segmentation.
In particular, we show that domain adaptation shares a common character with
few-shot learning in that both aim to recognize some types of unseen data with
knowledge learned from large amounts of seen data. Thus, we propose a unified
framework for domain adaptation and few-shot learning. The core idea is to use
the class prototypes extracted from few-shot annotated target images to
classify pixels of both source images and target images. Our method involves
only one-stage training and does not need to be trained on large-scale
un-annotated target images. Moreover, our method can be extended to variants of
both domain adaptation and few-shot learning. Experiments on adapting
GTA5-to-Cityscapes and SYNTHIA-to-Cityscapes show that our method achieves
competitive performance to state-of-the-art.
- Abstract(参考訳): ディープラーニングはセマンティックセグメンテーションのパフォーマンスを大幅に向上させたが、その成功はトレーニングのための大量の注釈付きデータの可用性に依存している。
したがって、ラベル付きソースドメインからラベルなしのターゲットドメインへの意味知識の転送に焦点を当てたドメイン適応意味セグメンテーションに多くの取り組みがなされている。
既存の自己学習手法は、通常、複数の訓練を必要とするが、敵対的トレーニングに基づく他の一般的なフレームワークは、ハイパーパラメータに敏感であることが知られている。
本稿では,ドメイン適応セマンティクスセグメンテーションのためのドメイン不変プロトタイプを学習する簡易学習フレームワークを提案する。
特に、ドメイン適応は、未知のデータの種類を大量のデータから学習した知識で認識することを目的とした、数ショットの学習と共通する特徴を示す。
そこで,本稿では,ドメイン適応と最小ショット学習の統一フレームワークを提案する。
中心となるアイデアは、少数のアノテーション付きターゲット画像から抽出されたクラスプロトタイプを使用して、ソース画像とターゲット画像の両方のピクセルを分類することだ。
提案手法は1段階の訓練のみを要し,大規模無注対象画像の訓練は不要である。
さらに,本手法はドメイン適応と少数ショット学習の両方に拡張することができる。
GTA5-to-CityscapesおよびSynTHIA-to-Cityscapesの適応実験により,本手法が最先端技術に対する競合性能を実現することを示す。
関連論文リスト
- Phrase Grounding-based Style Transfer for Single-Domain Generalized
Object Detection [109.58348694132091]
単一ドメインの一般化オブジェクト検出は、複数の未確認対象ドメインに対するモデルの一般化性を高めることを目的としている。
これは、ターゲットのドメインデータをトレーニングに組み込むことなく、ドメインシフトに対処するモデルを必要とするため、実用的だが難しいタスクである。
そこで我々は,課題に対する新しい文節接頭辞に基づくスタイル伝達手法を提案する。
論文 参考訳(メタデータ) (2024-02-02T10:48:43Z) - Domain-Controlled Prompt Learning [49.45309818782329]
既存の素早い学習方法はドメイン認識やドメイン転送機構を欠いていることが多い。
特定のドメインに対するtextbfDomain-Controlled Prompt Learningを提案する。
本手法は,特定の領域画像認識データセットにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2023-09-30T02:59:49Z) - Unsupervised Domain Adaptation for Semantic Segmentation using One-shot
Image-to-Image Translation via Latent Representation Mixing [9.118706387430883]
超高解像度画像のセマンティックセグメンテーションのための新しい教師なし領域適応法を提案する。
潜在コンテンツ表現をドメイン間で混合するエンコーダ・デコーダの原理に基づいて,画像から画像への変換パラダイムを提案する。
都市間比較実験により,提案手法は最先端領域適応法より優れていることが示された。
論文 参考訳(メタデータ) (2022-12-07T18:16:17Z) - PiPa: Pixel- and Patch-wise Self-supervised Learning for Domain
Adaptative Semantic Segmentation [100.6343963798169]
教師なしドメイン適応(Unsupervised Domain Adaptation, UDA)は、学習モデルの他のドメインへの一般化を強化することを目的としている。
そこで我々は,ドメイン適応型セマンティックセマンティックセグメンテーションのための,PiPaという,画素・パッチ対応の自己教師付き学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-14T18:31:24Z) - Style Mixing and Patchwise Prototypical Matching for One-Shot
Unsupervised Domain Adaptive Semantic Segmentation [21.01132797297286]
ワンショットの教師なしドメイン適応では、セグメンタはトレーニング中にラベルなしのターゲットイメージを1つしか見ることができない。
このような計算負担を効果的に軽減できるOSUDA法を提案する。
提案手法は,ドメイン適応型セマンティックセグメンテーションのための2つの一般的なベンチマーク上で,最先端性能を実現する。
論文 参考訳(メタデータ) (2021-12-09T02:47:46Z) - SPCL: A New Framework for Domain Adaptive Semantic Segmentation via
Semantic Prototype-based Contrastive Learning [6.705297811617307]
ドメイン適応は、ラベル付けされたソースドメインからラベル付けされていないターゲットドメインに知識を転送するのに役立ちます。
本稿では,クラスアライメントを微粒化するための新しい意味的プロトタイプに基づくコントラスト学習フレームワークを提案する。
我々の手法は実装が容易であり、最先端の手法と比較して優れた結果が得られる。
論文 参考訳(メタデータ) (2021-11-24T09:26:07Z) - WEDGE: Web-Image Assisted Domain Generalization for Semantic
Segmentation [72.88657378658549]
本稿では,Web画像の多様性を一般化可能なセマンティックセグメンテーションに活用したWEb画像支援ドメインゲネラライゼーション手法を提案する。
また,ウェブクローラー画像のスタイルをトレーニング中のトレーニング画像に注入する手法を提案する。
論文 参考訳(メタデータ) (2021-09-29T05:19:58Z) - PixMatch: Unsupervised Domain Adaptation via Pixelwise Consistency
Training [4.336877104987131]
教師なしドメイン適応はセマンティックセグメンテーションの有望なテクニックである。
対象領域整合性訓練の概念に基づく非監視領域適応のための新しいフレームワークを提案する。
私たちのアプローチはシンプルで、実装が簡単で、トレーニング時にメモリ効率が向上します。
論文 参考訳(メタデータ) (2021-05-17T19:36:28Z) - Towards Adaptive Semantic Segmentation by Progressive Feature Refinement [16.40758125170239]
セグメンテーションネットワークの転送可能性を高めるために,ドメイン逆学習とともに,革新的なプログレッシブな特徴改善フレームワークを提案する。
その結果、ソース・ドメイン・イメージで訓練されたセグメンテーション・モデルは、大幅な性能劣化を伴わずにターゲット・ドメインに転送できる。
論文 参考訳(メタデータ) (2020-09-30T04:17:48Z) - Affinity Space Adaptation for Semantic Segmentation Across Domains [57.31113934195595]
本稿では,意味的セグメンテーションにおける教師なしドメイン適応(UDA)の問題に対処する。
ソースドメインとターゲットドメインが不変なセマンティック構造を持つという事実に触発され、ドメイン間におけるそのような不変性を活用することを提案する。
親和性空間適応戦略として,親和性空間の洗浄と親和性空間アライメントという2つの方法を開発した。
論文 参考訳(メタデータ) (2020-09-26T10:28:11Z) - Domain Adaptation for Semantic Parsing [68.81787666086554]
本稿では,ドメイン適応のための新しいセマンティクスを提案する。このセマンティクスでは,ソースドメインと比較して,対象ドメインのアノテーション付きデータがはるかに少ない。
我々のセマンティックな利点は、2段階の粗大なフレームワークから得ており、2段階の異なる正確な処理を提供できる。
ベンチマークデータセットの実験により、我々の手法はいくつかの一般的なドメイン適応戦略より一貫して優れていることが示された。
論文 参考訳(メタデータ) (2020-06-23T14:47:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。