論文の概要: Exploiting Negative Learning for Implicit Pseudo Label Rectification in
Source-Free Domain Adaptive Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2106.12123v1
- Date: Wed, 23 Jun 2021 02:20:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-25 00:38:43.906067
- Title: Exploiting Negative Learning for Implicit Pseudo Label Rectification in
Source-Free Domain Adaptive Semantic Segmentation
- Title(参考訳): ソースフリードメイン適応意味セグメンテーションにおける暗黙的擬似ラベル整流法に対する負学習の活用
- Authors: Xin Luo, Wei Chen, Yusong Tan, Chen Li, Yulin He, Xiaogang Jia
- Abstract要約: ソースフリードメイン適応(SFDA)のための最先端の手法は厳格な制限を受ける。
textitPR-SFDA は 49.0 mIoU を達成している。
- 参考スコア(独自算出の注目度): 12.716865774780704
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: It is desirable to transfer the knowledge stored in a well-trained source
model onto non-annotated target domain in the absence of source data. However,
state-of-the-art methods for source free domain adaptation (SFDA) are subject
to strict limits: 1) access to internal specifications of source models is a
must; and 2) pseudo labels should be clean during self-training, making
critical tasks relying on semantic segmentation unreliable. Aiming at these
pitfalls, this study develops a domain adaptive solution to semantic
segmentation with pseudo label rectification (namely \textit{PR-SFDA}), which
operates in two phases: 1) \textit{Confidence-regularized unsupervised
learning}: Maximum squares loss applies to regularize the target model to
ensure the confidence in prediction; and 2) \textit{Noise-aware pseudo label
learning}: Negative learning enables tolerance to noisy pseudo labels in
training, meanwhile positive learning achieves fast convergence. Extensive
experiments have been performed on domain adaptive semantic segmentation
benchmark, \textit{GTA5 $\to$ Cityscapes}. Overall, \textit{PR-SFDA} achieves a
performance of 49.0 mIoU, which is very close to that of the state-of-the-art
counterparts. Note that the latter demand accesses to the source model's
internal specifications, whereas the \textit{PR-SFDA} solution needs none as a
sharp contrast.
- Abstract(参考訳): ソースデータがない場合には、十分に訓練されたソースモデルに格納された知識を非注釈のターゲットドメインに転送することが望ましい。
しかし、ソースフリードメイン適応(sfda)のための最先端の手法には厳しい制限がある。1) ソースモデルの内部仕様へのアクセスは必須であり、2) 擬似ラベルは自己学習中にクリーンでなければならず、セマンティックセグメンテーションに依存する重要なタスクは信頼できない。
Aiming at these pitfalls, this study develops a domain adaptive solution to semantic segmentation with pseudo label rectification (namely \textit{PR-SFDA}), which operates in two phases: 1) \textit{Confidence-regularized unsupervised learning}: Maximum squares loss applies to regularize the target model to ensure the confidence in prediction; and 2) \textit{Noise-aware pseudo label learning}: Negative learning enables tolerance to noisy pseudo labels in training, meanwhile positive learning achieves fast convergence.
ドメイン適応型セマンティックセグメンテーションのベンチマークである \textit{GTA5 $\to$ Cityscapes} で大規模な実験が行われた。
全体として、textit{PR-SFDA} は 49.0 mIoU のパフォーマンスを達成している。
後者の要求はソースモデルの内部仕様にアクセスできるが、 \textit{PR-SFDA} ソリューションは明確なコントラストを必要としない。
関連論文リスト
- Divide and Contrast: Source-free Domain Adaptation via Adaptive
Contrastive Learning [122.62311703151215]
Divide and Contrast (DaC) は、それぞれの制限を回避しつつ、両方の世界の善良な端を接続することを目的としている。
DaCは、ターゲットデータをソースライクなサンプルとターゲット固有なサンプルに分割する。
さらに、ソースライクなドメインと、メモリバンクベースの最大平均離散性(MMD)損失を用いて、ターゲット固有のサンプルとを整合させて、分散ミスマッチを低減する。
論文 参考訳(メタデータ) (2022-11-12T09:21:49Z) - Domain Adaptive Semantic Segmentation without Source Data [50.18389578589789]
モデルがソースドメイン上で事前学習されていることを前提として、ソースデータのないドメイン適応セマンティックセマンティックセマンティックセマンティクスについて検討する。
本稿では,この課題に対して,肯定的学習と否定的学習という2つの要素を用いた効果的な枠組みを提案する。
私たちのフレームワークは、パフォーマンスをさらに向上するために、他のメソッドに簡単に実装および組み込むことができます。
論文 参考訳(メタデータ) (2021-10-13T04:12:27Z) - On Universal Black-Box Domain Adaptation [53.7611757926922]
実践的な展開という観点から,ドメイン適応の最小限の制約条件について検討する。
ソースモデルのインターフェースのみがターゲットドメインで利用可能であり、2つのドメイン間のラベル空間関係が異なることや未知であることが許されている。
対象試料の局所近傍における予測の整合性によって正規化された自己訓練フレームワークに統一することを提案する。
論文 参考訳(メタデータ) (2021-04-10T02:21:09Z) - Adaptive Pseudo-Label Refinement by Negative Ensemble Learning for
Source-Free Unsupervised Domain Adaptation [35.728603077621564]
既存のUnsupervised Domain Adaptation (UDA)メソッドは、トレーニング中にソースとターゲットのドメインデータを同時に利用できると仮定する。
訓練済みのソースモデルは、よく知られたドメインシフトの問題により、ターゲットに対して性能が悪くても、常に利用可能であると考えられている。
適応型ノイズフィルタリングと擬似ラベル改良に取り組むための統一手法を提案する。
論文 参考訳(メタデータ) (2021-03-29T22:18:34Z) - Source Data-absent Unsupervised Domain Adaptation through Hypothesis
Transfer and Labeling Transfer [137.36099660616975]
Unsupervised Adapt Adaptation (UDA) は、関連性のある異なるラベル付きソースドメインから新しいラベルなしターゲットドメインへの知識の転送を目標としている。
既存のudaメソッドの多くはソースデータへのアクセスを必要としており、プライバシ上の懸念からデータが機密で共有できない場合は適用できない。
本稿では、ソースデータにアクセスする代わりに、トレーニング済みの分類モデルのみを用いて現実的な設定に取り組むことを目的とする。
論文 参考訳(メタデータ) (2020-12-14T07:28:50Z) - Rectifying Pseudo Label Learning via Uncertainty Estimation for Domain
Adaptive Semantic Segmentation [49.295165476818866]
本稿では、意味的セグメンテーションの文脈において、ソースドメインからターゲットドメインへの知識伝達の教師なし領域適応に焦点を当てる。
既存のアプローチでは、通常、擬似ラベルを未ラベルのターゲットドメインデータを完全に活用するための基礎的真理とみなす。
本稿では,擬似ラベル学習の修正のために,学習中の予測の不確かさを明示的に推定することを提案する。
論文 参考訳(メタデータ) (2020-03-08T12:37:19Z) - Do We Really Need to Access the Source Data? Source Hypothesis Transfer
for Unsupervised Domain Adaptation [102.67010690592011]
Unsupervised adaptUDA (UDA) は、ラベル付きソースデータセットから学んだ知識を活用して、新しいラベル付きドメインで同様のタスクを解決することを目的としている。
従来のUDAメソッドは、モデルに適応するためには、通常、ソースデータにアクセスする必要がある。
この作業は、訓練済みのソースモデルのみが利用できる実践的な環境に取り組み、ソースデータなしでそのようなモデルを効果的に活用してUDA問題を解決する方法に取り組みます。
論文 参考訳(メタデータ) (2020-02-20T03:13:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。