論文の概要: Domain Adaptive Semantic Segmentation without Source Data
- arxiv url: http://arxiv.org/abs/2110.06484v1
- Date: Wed, 13 Oct 2021 04:12:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-14 14:58:35.076198
- Title: Domain Adaptive Semantic Segmentation without Source Data
- Title(参考訳): ソースデータのないドメイン適応セマンティックセマンティックセグメンテーション
- Authors: Fuming You, Jingjing Li, Lei Zhu, Ke Lu, Zhi Chen, Zi Huang
- Abstract要約: モデルがソースドメイン上で事前学習されていることを前提として、ソースデータのないドメイン適応セマンティックセマンティックセマンティックセマンティクスについて検討する。
本稿では,この課題に対して,肯定的学習と否定的学習という2つの要素を用いた効果的な枠組みを提案する。
私たちのフレームワークは、パフォーマンスをさらに向上するために、他のメソッドに簡単に実装および組み込むことができます。
- 参考スコア(独自算出の注目度): 50.18389578589789
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Domain adaptive semantic segmentation is recognized as a promising technique
to alleviate the domain shift between the labeled source domain and the
unlabeled target domain in many real-world applications, such as automatic
pilot. However, large amounts of source domain data often introduce significant
costs in storage and training, and sometimes the source data is inaccessible
due to privacy policies. To address these problems, we investigate domain
adaptive semantic segmentation without source data, which assumes that the
model is pre-trained on the source domain, and then adapting to the target
domain without accessing source data anymore. Since there is no supervision
from the source domain data, many self-training methods tend to fall into the
``winner-takes-all'' dilemma, where the {\it majority} classes totally dominate
the segmentation networks and the networks fail to classify the {\it minority}
classes. Consequently, we propose an effective framework for this challenging
problem with two components: positive learning and negative learning. In
positive learning, we select the class-balanced pseudo-labeled pixels with
intra-class threshold, while in negative learning, for each pixel, we
investigate which category the pixel does not belong to with the proposed
heuristic complementary label selection. Notably, our framework can be easily
implemented and incorporated with other methods to further enhance the
performance. Extensive experiments on two widely-used synthetic-to-real
benchmarks demonstrate our claims and the effectiveness of our framework, which
outperforms the baseline with a large margin. Code is available at
\url{https://github.com/fumyou13/LDBE}.
- Abstract(参考訳): ドメイン適応セマンティックセグメンテーションは、自動パイロットのような現実世界の多くのアプリケーションにおいて、ラベル付きソースドメインとラベル付きターゲットドメイン間のドメインシフトを軽減するための有望な手法として認識されている。
しかし、大量のソースドメインデータがストレージとトレーニングの大幅なコストを伴い、時にはプライバシポリシのためにソースデータがアクセスできないことがある。
これらの問題に対処するために,モデルがソース領域で事前学習されていることを前提に,ソースデータにアクセスせずに対象領域に適応する,ソースデータなしのドメイン適応意味セマンティクスセグメンテーションを検討する。
ソースドメインデータからの監督がないため、多くの自己学習手法は ``winner-takes-all''' というジレンマに陥りがちであり、そこでは {\it majority} クラスは完全にセグメンテーションネットワークを支配し、ネットワークは {\it minor} クラスを分類できない。
その結果,肯定的学習と否定的学習という2つの要素によるこの問題に対する効果的な枠組みを提案する。
正の学習では、クラスバランスの擬似ラベル付き画素をクラス内閾値で選択し、負の学習では、各画素について、提案したヒューリスティック補完ラベル選択に属さないカテゴリを調査する。
特に、我々のフレームワークは、パフォーマンスをさらに向上するために、他のメソッドと簡単に実装、統合できます。
広く使われている2つの総合的なベンチマーク実験は、我々の主張とフレームワークの有効性を示している。
コードは \url{https://github.com/fumyou13/LDBE} で入手できる。
関連論文リスト
- Reducing Source-Private Bias in Extreme Universal Domain Adaptation [11.875619863954238]
Universal Domain Adaptation (UniDA)は、ラベル付きソースドメインからラベル付きターゲットドメインに知識を転送することを目的としている。
我々は、ソースドメインが重複するクラスよりもはるかに重複しないクラスを持つ場合、最先端のメソッドが苦労していることを示す。
対象データの構造を保存するために,自己教師付き学習を提案する。
論文 参考訳(メタデータ) (2024-10-15T04:51:37Z) - Continual Unsupervised Domain Adaptation for Semantic Segmentation using
a Class-Specific Transfer [9.46677024179954]
セグメンテーションモデルは 目に見えない領域に一般化しません
2つのクラス条件のAdaIN層を組み込んだ軽量なスタイル転送フレームワークを提案する。
合成シーケンスに対する我々のアプローチを広く検証し、さらに実領域からなる挑戦的なシーケンスを提案する。
論文 参考訳(メタデータ) (2022-08-12T21:30:49Z) - DecoupleNet: Decoupled Network for Domain Adaptive Semantic Segmentation [78.30720731968135]
セマンティックセグメンテーションにおける教師なしドメイン適応は、高価なピクセル単位のアノテーションへの依存を軽減するために提起されている。
我々は、ソースドメインのオーバーフィットを軽減し、最終的なモデルをセグメント化タスクに集中できるようにするDecoupleNetを提案する。
我々はまた、自己識別(SD)を推進し、擬似ラベルでより識別可能なターゲットドメイン特徴を学習するための補助分類器を導入した。
論文 参考訳(メタデータ) (2022-07-20T15:47:34Z) - Contrastive Learning and Self-Training for Unsupervised Domain
Adaptation in Semantic Segmentation [71.77083272602525]
UDAはラベル付きソースドメインからラベルなしターゲットドメインへの効率的な知識伝達を試みている。
本稿では,領域にまたがるカテゴリ別センタロイドを適応させるコントラスト学習手法を提案する。
提案手法を自己学習で拡張し,メモリ効率の良い時間アンサンブルを用いて一貫性と信頼性の高い擬似ラベルを生成する。
論文 参考訳(メタデータ) (2021-05-05T11:55:53Z) - A Review of Single-Source Deep Unsupervised Visual Domain Adaptation [81.07994783143533]
大規模ラベル付きトレーニングデータセットにより、ディープニューラルネットワークは、幅広いベンチマークビジョンタスクを拡張できるようになった。
多くのアプリケーションにおいて、大量のラベル付きデータを取得するのは非常に高価で時間を要する。
限られたラベル付きトレーニングデータに対処するため、大規模ラベル付きソースドメインでトレーニングされたモデルを、疎ラベルまたは未ラベルのターゲットドメインに直接適用しようと試みている人も多い。
論文 参考訳(メタデータ) (2020-09-01T00:06:50Z) - Deep Residual Correction Network for Partial Domain Adaptation [79.27753273651747]
ディープドメイン適応法は、よくラベルされたソースドメインから異なるが関連する未ラベルのターゲットドメインへの転送可能な表現を学習することで、魅力的なパフォーマンスを実現している。
本稿では,効率よく実装された深部残留補正網を提案する。
部分的、伝統的、微粒なクロスドメイン認識に関する総合的な実験は、DRCNが競合深いドメイン適応アプローチよりも優れていることを示している。
論文 参考訳(メタデータ) (2020-04-10T06:07:16Z) - Alleviating Semantic-level Shift: A Semi-supervised Domain Adaptation
Method for Semantic Segmentation [97.8552697905657]
このタスクの重要な課題は、ソースとターゲットドメイン間のデータ分散の相違を緩和する方法である。
本稿では,グローバルな視点とローカルな視点の両方から分布の整合性を促進できるASS(Alleviating Semantic-level Shift)を提案する。
GTA5、Cityscapes、Synthia、Cityscapesの2つのドメイン適応タスクにASSを適用します。
論文 参考訳(メタデータ) (2020-04-02T03:25:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。