論文の概要: Focus on Your Target: A Dual Teacher-Student Framework for
Domain-adaptive Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2303.09083v1
- Date: Thu, 16 Mar 2023 05:04:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-17 16:45:44.768506
- Title: Focus on Your Target: A Dual Teacher-Student Framework for
Domain-adaptive Semantic Segmentation
- Title(参考訳): ターゲットにフォーカスする:ドメイン適応セマンティックセマンティックセグメンテーションのための二重教師学習フレームワーク
- Authors: Xinyue Huo, Lingxi Xie, Wengang Zhou, Houqiang Li, Qi Tian
- Abstract要約: 意味的セグメンテーションのための教師なしドメイン適応(UDA)について検討する。
対象領域からのトレーニングサンプルの割合を減少・増加させることで,「学習能力」が強化・弱まることがわかった。
本稿では,DTS(Double teacher-student)フレームワークを提案し,双方向学習戦略を取り入れた。
- 参考スコア(独自算出の注目度): 210.46684938698485
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study unsupervised domain adaptation (UDA) for semantic segmentation.
Currently, a popular UDA framework lies in self-training which endows the model
with two-fold abilities: (i) learning reliable semantics from the labeled
images in the source domain, and (ii) adapting to the target domain via
generating pseudo labels on the unlabeled images. We find that, by
decreasing/increasing the proportion of training samples from the target
domain, the 'learning ability' is strengthened/weakened while the 'adapting
ability' goes in the opposite direction, implying a conflict between these two
abilities, especially for a single model. To alleviate the issue, we propose a
novel dual teacher-student (DTS) framework and equip it with a bidirectional
learning strategy. By increasing the proportion of target-domain data, the
second teacher-student model learns to 'Focus on Your Target' while the first
model is not affected. DTS is easily plugged into existing self-training
approaches. In a standard UDA scenario (training on synthetic, labeled data and
real, unlabeled data), DTS shows consistent gains over the baselines and sets
new state-of-the-art results of 76.5\% and 75.1\% mIoUs on
GTAv$\rightarrow$Cityscapes and SYNTHIA$\rightarrow$Cityscapes, respectively.
- Abstract(参考訳): 意味的セグメンテーションのための教師なしドメイン適応(UDA)について検討する。
現在、人気のあるUDAフレームワークは、モデルの2倍の能力を持つ自己学習にあります。
(i)ソースドメイン内のラベル付き画像から信頼性のあるセマンティクスを学習し、
(ii)未ラベル画像に擬似ラベルを生成して対象領域に適応すること。
対象ドメインからのトレーニングサンプルの割合を減少・増加させることで、「学習能力」は強化・弱められ、「適応能力」は反対方向に進み、特に単一モデルにおいてこれらの2つの能力の対立が示唆される。
この問題を軽減するために,新しい二元的教師学生(DTS)フレームワークを提案し,双方向学習戦略を取り入れた。
対象ドメインデータの割合を増やすことで、第2の教師学生モデルは、第1のモデルが影響を受けていない間に、"Focus on Your Target"に学習する。
DTSは既存の自己学習アプローチに簡単に接続できる。
標準的なUDAシナリオ(合成、ラベル付きデータ、実、ラベルなしデータ)では、DTSはベースラインに対して一貫した利得を示し、それぞれGTAv$\rightarrow$CityscapesとSynTHIA$\rightarrow$Cityscapesに76.5\%と75.1\% mIoUsの新しい最先端結果を設定する。
関連論文リスト
- SiamSeg: Self-Training with Contrastive Learning for Unsupervised Domain Adaptation Semantic Segmentation in Remote Sensing [14.007392647145448]
UDAは、ラベル付きソースドメインデータをトレーニングしながら、ラベルなしのターゲットドメインデータからモデルを学習することを可能にする。
コントラスト学習を UDA に統合し,セマンティック情報を取得する能力を向上させることを提案する。
我々のSimSegメソッドは既存の手法より優れ、最先端の結果が得られます。
論文 参考訳(メタデータ) (2024-10-17T11:59:39Z) - Pulling Target to Source: A New Perspective on Domain Adaptive Semantic Segmentation [80.1412989006262]
ドメイン適応セマンティックセグメンテーションは、ラベル付きソースドメインからラベルなしターゲットドメインに知識を転送することを目的としています。
我々はT2S-DAを提案し、T2S-DAはドメイン適応のためのソースにターゲットを引っ張る形式として解釈する。
論文 参考訳(メタデータ) (2023-05-23T07:09:09Z) - Contrastive Mean Teacher for Domain Adaptive Object Detectors [20.06919799819326]
平均教師の自己学習は、オブジェクト検出のための教師なしドメイン適応において強力なパラダイムであるが、低品質の擬似ラベルに苦しむ。
提案するContrastive Mean Teacher (CMT)は、2つのパラダイムが自然に統合され、有益な学習信号が最大化される統一的汎用フレームワークである。
CMTは、Fogdy Cityscapesで51.9%のmAPを達成し、これまでで最高の2.1%のmAPを達成している。
論文 参考訳(メタデータ) (2023-05-04T17:55:17Z) - Target and Task specific Source-Free Domain Adaptive Image Segmentation [73.78898054277538]
ソースフリー領域適応画像分割のための2段階のアプローチを提案する。
我々は,高エントロピー領域を抑えつつ,ターゲット固有の擬似ラベルを生成することに注力する。
第2段階では、タスク固有の表現にネットワークを適用することに重点を置いている。
論文 参考訳(メタデータ) (2022-03-29T17:50:22Z) - Source-Free Open Compound Domain Adaptation in Semantic Segmentation [99.82890571842603]
SF-OCDAでは、ターゲットモデルを学習するために、ソース事前訓練されたモデルとターゲットデータのみが利用可能である。
そこで我々は,Cross-Patch Style Swap (CPSS)を提案する。
提案手法は,C-Drivingデータセット上で最先端の結果を生成する。
論文 参考訳(メタデータ) (2021-06-07T08:38:41Z) - Contrastive Learning and Self-Training for Unsupervised Domain
Adaptation in Semantic Segmentation [71.77083272602525]
UDAはラベル付きソースドメインからラベルなしターゲットドメインへの効率的な知識伝達を試みている。
本稿では,領域にまたがるカテゴリ別センタロイドを適応させるコントラスト学習手法を提案する。
提案手法を自己学習で拡張し,メモリ効率の良い時間アンサンブルを用いて一貫性と信頼性の高い擬似ラベルを生成する。
論文 参考訳(メタデータ) (2021-05-05T11:55:53Z) - Teacher-Student Consistency For Multi-Source Domain Adaptation [28.576613317253035]
マルチソースドメイン適応(MSDA)では、モデルは複数のソースドメインのサンプルに基づいてトレーニングされ、異なるターゲットドメインの推論に使用される。
本稿では,これらの問題を緩和する新手法であるMulti-source Students Teacher (MUST)を提案する。
論文 参考訳(メタデータ) (2020-10-20T06:17:40Z) - Deep Co-Training with Task Decomposition for Semi-Supervised Domain
Adaptation [80.55236691733506]
半教師付きドメイン適応(SSDA)は、ラベル付きソースドメインからトレーニングされたモデルを、異なるが関連するターゲットドメインに適応させることを目的としている。
本稿では,SSDAタスクを対象ドメイン内の半教師付き学習(SSL)タスクと,ドメイン間の非教師付きドメイン適応(UDA)タスクの2つのサブタスクに明示的に分解することを提案する。
論文 参考訳(メタデータ) (2020-07-24T17:57:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。