論文の概要: Unsupervised Domain Adaptation for Semantic Segmentation with Pseudo
Label Self-Refinement
- arxiv url: http://arxiv.org/abs/2310.16979v2
- Date: Mon, 25 Dec 2023 03:23:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-27 21:45:20.889594
- Title: Unsupervised Domain Adaptation for Semantic Segmentation with Pseudo
Label Self-Refinement
- Title(参考訳): Pseudo Label Self-Refinement を用いた意味分割のための教師なしドメイン適応
- Authors: Xingchen Zhao, Niluthpol Chowdhury Mithun, Abhinav Rajvanshi, Han-Pang
Chiu, Supun Samarasekera
- Abstract要約: 擬似ラベルのオンライン精錬のための補助的擬似ラベル精錬ネットワーク(PRN)を提案する。
3つの異なるドメインシフトを持つベンチマークデータセットに対する我々のアプローチを評価する。
- 参考スコア(独自算出の注目度): 9.69089112870202
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning-based solutions for semantic segmentation suffer from
significant performance degradation when tested on data with different
characteristics than what was used during the training. Adapting the models
using annotated data from the new domain is not always practical. Unsupervised
Domain Adaptation (UDA) approaches are crucial in deploying these models in the
actual operating conditions. Recent state-of-the-art (SOTA) UDA methods employ
a teacher-student self-training approach, where a teacher model is used to
generate pseudo-labels for the new data which in turn guide the training
process of the student model. Though this approach has seen a lot of success,
it suffers from the issue of noisy pseudo-labels being propagated in the
training process. To address this issue, we propose an auxiliary pseudo-label
refinement network (PRN) for online refining of the pseudo labels and also
localizing the pixels whose predicted labels are likely to be noisy. Being able
to improve the quality of pseudo labels and select highly reliable ones, PRN
helps self-training of segmentation models to be robust against pseudo label
noise propagation during different stages of adaptation. We evaluate our
approach on benchmark datasets with three different domain shifts, and our
approach consistently performs significantly better than the previous
state-of-the-art methods.
- Abstract(参考訳): セマンティックセグメンテーションのためのディープラーニングベースのソリューションは、トレーニングで使用されたものとは異なる特徴を持つデータでテストした場合、大きなパフォーマンス劣化に悩まされる。
新しいドメインからアノテーション付きデータを使ってモデルを適用することは、必ずしも現実的ではありません。
教師なしドメイン適応(UDA)アプローチは、実際の運用環境でこれらのモデルをデプロイするのに不可欠である。
近年のSOTA (State-of-the-art) UDA法では教師が学習する自己学習手法を採用しており,教師モデルを用いて新しいデータに対する擬似ラベルを生成し,学生モデルの学習過程を導出する。
このアプローチは多くの成功を収めていますが、トレーニングプロセスで騒がしい擬似ラベルが伝播する問題に苦しんでいます。
この問題に対処するために,擬似ラベルのオンライン精錬や,予測されたラベルがノイズになりやすいピクセルのローカライズのための補助擬似ラベル精錬ネットワーク(PRN)を提案する。
PRNは擬似ラベルの品質を改善し、信頼性の高いラベルを選択することができ、適応の異なる段階で擬似ラベルのノイズ伝搬に対して頑健なセグメンテーションモデルの自己学習を支援する。
我々は、3つの異なるドメインシフトを持つベンチマークデータセットに対するアプローチを評価し、従来の最先端手法よりも一貫して優れた性能を示す。
関連論文リスト
- Towards Modality-agnostic Label-efficient Segmentation with Entropy-Regularized Distribution Alignment [62.73503467108322]
この話題は、3次元の点雲のセグメンテーションで広く研究されている。
近年まで、擬似ラベルは、限られた地道ラベルによる訓練を容易にするために広く用いられてきた。
既存の擬似ラベリングアプローチは、重複しないデータのノイズやバリエーションに悩まされる可能性がある。
本研究では,学習用擬似ラベルを正規化し,擬似ラベルとモデル予測とのギャップを効果的に狭める学習戦略を提案する。
論文 参考訳(メタデータ) (2024-08-29T13:31:15Z) - Overcoming Label Noise for Source-free Unsupervised Video Domain
Adaptation [39.71690595469969]
自己学習に基づくソースフリーなビデオドメイン適応手法を提案する。
ソース事前学習モデルを用いて、対象ドメインサンプルの擬似ラベルを生成する。
我々は,教師の学習フレームワークを実装することにより,適応性能をさらに向上する。
論文 参考訳(メタデータ) (2023-11-30T14:06:27Z) - All Points Matter: Entropy-Regularized Distribution Alignment for
Weakly-supervised 3D Segmentation [67.30502812804271]
擬似ラベルは、弱い教師付き3Dセグメンテーションタスクに広く使われており、学習に使えるのはスパース・グラウンド・トラス・ラベルのみである。
本稿では,生成した擬似ラベルを正規化し,擬似ラベルとモデル予測とのギャップを効果的に狭めるための新しい学習戦略を提案する。
論文 参考訳(メタデータ) (2023-05-25T08:19:31Z) - Hard-aware Instance Adaptive Self-training for Unsupervised Cross-domain
Semantic Segmentation [18.807921765977415]
セマンティックセグメンテーションの課題に対して,UDAのための適応型自己学習フレームワークを提案する。
我々は,インスタンス適応セレクタを用いた新しい擬似ラベル生成戦略を開発した。
GTA5からCityscapesへ、SynTHIAからCityscapesへ、そしてCityscapesからOxford RobotCarへの実験は、我々のアプローチの優れた性能を実証した。
論文 参考訳(メタデータ) (2023-02-14T11:52:26Z) - Cycle Self-Training for Domain Adaptation [85.14659717421533]
Cycle Self-Training (CST) は、ドメイン間の一般化に擬似ラベルを強制する、原則付き自己学習アルゴリズムである。
CSTは目標の真理を回復し、不変の機能学習とバニラ自己訓練の両方が失敗する。
実験結果から,標準的なUDAベンチマークでは,CSTは先行技術よりも大幅に改善されていることが示唆された。
論文 参考訳(メタデータ) (2021-03-05T10:04:25Z) - Self-Supervised Noisy Label Learning for Source-Free Unsupervised Domain
Adaptation [87.60688582088194]
新規な自己監督雑音ラベル学習法を提案する。
本手法は最新の結果を容易に達成でき、他の手法を非常に大きなマージンで超えることができる。
論文 参考訳(メタデータ) (2021-02-23T10:51:45Z) - Dual-Refinement: Joint Label and Feature Refinement for Unsupervised
Domain Adaptive Person Re-Identification [51.98150752331922]
Unsupervised Domain Adaptive (UDA) Person Re-identification (再ID) は、ターゲットドメインデータのラベルが欠落しているため、難しい作業です。
オフラインクラスタリングフェーズにおける擬似ラベルとオンライントレーニングフェーズにおける特徴を共同で改良する,デュアルリファインメントと呼ばれる新しいアプローチを提案する。
本手法は最先端手法を大きなマージンで上回っている。
論文 参考訳(メタデータ) (2020-12-26T07:35:35Z) - Selective Pseudo-Labeling with Reinforcement Learning for
Semi-Supervised Domain Adaptation [116.48885692054724]
半教師付きドメイン適応のための強化学習に基づく選択擬似ラベル法を提案する。
高精度かつ代表的な擬似ラベルインスタンスを選択するための深層Q-ラーニングモデルを開発する。
提案手法は, SSDAのベンチマークデータセットを用いて評価し, 全ての比較手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2020-12-07T03:37:38Z) - Instance Adaptive Self-Training for Unsupervised Domain Adaptation [19.44504738538047]
セマンティックセグメンテーションの課題に対して,UDAのためのインスタンス適応型自己学習フレームワークを提案する。
擬似ラベルの品質を効果的に向上するために,インスタンス適応セレクタを用いた新しい擬似ラベル生成戦略を開発した。
我々の手法は簡潔で効率的であり、他の教師なし領域適応法に容易に一般化できる。
論文 参考訳(メタデータ) (2020-08-27T15:50:27Z) - ESL: Entropy-guided Self-supervised Learning for Domain Adaptation in
Semantic Segmentation [35.03150829133562]
より正確な擬似ラベルを生成するための信頼性指標としてエントロピーを利用したエントロピー誘導型自己教師学習を提案する。
異なるUDAベンチマークでは、ESLは強いSSLベースラインを一貫して上回り、最先端の結果を得る。
論文 参考訳(メタデータ) (2020-06-15T18:10:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。