論文の概要: Unsupervised Adaptive Semantic Segmentation with Local Lipschitz
Constraint
- arxiv url: http://arxiv.org/abs/2105.12939v1
- Date: Thu, 27 May 2021 04:28:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2021-05-28 16:21:49.316910
- Title: Unsupervised Adaptive Semantic Segmentation with Local Lipschitz
Constraint
- Title(参考訳): 局所リプシッツ制約を用いた教師なし適応的意味セグメンテーション
- Authors: Guanyu Cai, Lianghua He
- Abstract要約: 局所的なリプシッツ制約に基づく2段階適応的セマンティックセマンティックセマンティクス法を提案する。
まず,ドメイン内知識を活用して異なるドメインを協調する目的関数を提案する。
第2段階では、各画素に対するリプシッツ性を満たす確率を推定するために局所リプシッツ正則化を用いる。
- 参考スコア(独自算出の注目度): 11.465784695228015
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in unsupervised domain adaptation have seen considerable
progress in semantic segmentation. Existing methods either align different
domains with adversarial training or involve the self-learning that utilizes
pseudo labels to conduct supervised training. The former always suffers from
the unstable training caused by adversarial training and only focuses on the
inter-domain gap that ignores intra-domain knowledge. The latter tends to put
overconfident label prediction on wrong categories, which propagates errors to
more samples. To solve these problems, we propose a two-stage adaptive semantic
segmentation method based on the local Lipschitz constraint that satisfies both
domain alignment and domain-specific exploration under a unified principle. In
the first stage, we propose the local Lipschitzness regularization as the
objective function to align different domains by exploiting intra-domain
knowledge, which explores a promising direction for non-adversarial adaptive
semantic segmentation. In the second stage, we use the local Lipschitzness
regularization to estimate the probability of satisfying Lipschitzness for each
pixel, and then dynamically sets the threshold of pseudo labels to conduct
self-learning. Such dynamical self-learning effectively avoids the error
propagation caused by noisy labels. Optimization in both stages is based on the
same principle, i.e., the local Lipschitz constraint, so that the knowledge
learned in the first stage can be maintained in the second stage. Further, due
to the model-agnostic property, our method can easily adapt to any CNN-based
semantic segmentation networks. Experimental results demonstrate the excellent
performance of our method on standard benchmarks.
- Abstract(参考訳): 教師なしドメイン適応の最近の進歩は意味セグメンテーションがかなり進歩している。
既存の方法は、異なるドメインを敵対的なトレーニングと整合させるか、または擬似ラベルを使って教師付きトレーニングを行う自己学習を含む。
前者は常に逆行訓練による不安定なトレーニングに悩まされており、ドメイン内の知識を無視したドメイン間ギャップのみに焦点を当てている。
後者は、間違ったカテゴリに過剰なラベル予測をし、より多くのサンプルにエラーを伝達する傾向がある。
これらの問題を解決するために,ドメインアライメントとドメイン固有探索の両方を統一原理で満足する局所リプシッツ制約に基づく2段階適応型セマンティックセマンティックセマンティクス法を提案する。
第1段階では,非敵適応的セマンティクスセグメンテーションのための有望な方向を探索する領域内知識を活用し,異なる領域を整列する目的関数として局所リプシッツ性正規化を提案する。
第2段階では,局所リプシッツ正則化を用いて各画素に対するリプシッツ性を満たす確率を推定し,擬似ラベルの閾値を動的に設定して自己学習を行う。
このような動的自己学習はノイズラベルによる誤り伝播を効果的に回避する。
どちらの段階においても最適化は同じ原理、すなわち局所リプシッツの制約に基づいており、第1段階で学んだ知識を第2段階で維持することができる。
さらに,本手法はモデルに依存しないため,任意のCNNに基づくセマンティックセグメンテーションネットワークに容易に適応できる。
実験の結果,本手法は標準ベンチマークにおいて優れた性能を示す。
関連論文リスト
- Semantic Connectivity-Driven Pseudo-labeling for Cross-domain
Segmentation [89.41179071022121]
自己学習はドメイン間セマンティックセグメンテーションにおいて一般的なアプローチである。
本稿ではセマンティック・コネクティビティ駆動の擬似ラベル方式を提案する。
このアプローチは、接続レベルにおいて擬似ラベルを定式化し、構造的および低雑音のセマンティクスの学習を容易にする。
論文 参考訳(メタデータ) (2023-12-11T12:29:51Z) - Bi-discriminator Domain Adversarial Neural Networks with Class-Level
Gradient Alignment [87.8301166955305]
そこで本研究では,クラスレベルのアライメントアライメントを有するバイディミネータドメイン対向ニューラルネットワークを提案する。
BACGは、領域分布の整合性を改善するために勾配信号と二階確率推定を利用する。
さらに、対照的な学習にインスパイアされ、トレーニングプロセスを大幅に短縮できるメモリバンクベースの変種であるFast-BACGを開発した。
論文 参考訳(メタデータ) (2023-10-21T09:53:17Z) - Distribution Regularized Self-Supervised Learning for Domain Adaptation
of Semantic Segmentation [3.284878354988896]
本稿では,セマンティックセグメンテーションの自己教師付きドメイン適応のための画素レベル分布正規化スキーム(DRSL)を提案する。
典型的な環境では、分類損失はセマンティックセグメンテーションモデルにクラス間のバリエーションをキャプチャする表現を欲しがらせるように強制する。
クラス認識型マルチモーダル分布学習により,ピクセルレベルのクラス内変動を捉える。
論文 参考訳(メタデータ) (2022-06-20T09:52:49Z) - Semi-supervised Domain Adaptive Structure Learning [72.01544419893628]
半教師付きドメイン適応 (SSDA) は,1) アノテーションの低いデータに過度に適合する手法と,2) ドメイン間の分散シフトの両方を克服しなければならない課題である。
SSLとDAの協調を正規化するための適応型構造学習手法を提案する。
論文 参考訳(メタデータ) (2021-12-12T06:11:16Z) - Exploiting Negative Learning for Implicit Pseudo Label Rectification in
Source-Free Domain Adaptive Semantic Segmentation [12.716865774780704]
ソースフリードメイン適応(SFDA)のための最先端の手法は厳格な制限を受ける。
textitPR-SFDA は 49.0 mIoU を達成している。
論文 参考訳(メタデータ) (2021-06-23T02:20:31Z) - Contrastive Learning and Self-Training for Unsupervised Domain
Adaptation in Semantic Segmentation [71.77083272602525]
UDAはラベル付きソースドメインからラベルなしターゲットドメインへの効率的な知識伝達を試みている。
本稿では,領域にまたがるカテゴリ別センタロイドを適応させるコントラスト学習手法を提案する。
提案手法を自己学習で拡張し,メモリ効率の良い時間アンサンブルを用いて一貫性と信頼性の高い擬似ラベルを生成する。
論文 参考訳(メタデータ) (2021-05-05T11:55:53Z) - Learning Invariant Representations and Risks for Semi-supervised Domain
Adaptation [109.73983088432364]
半教師付きドメイン適応(Semi-DA)の設定の下で不変表現とリスクを同時に学習することを目的とした最初の手法を提案する。
共同で textbfLearning textbfInvariant textbfRepresentations と textbfRisks の LIRR アルゴリズムを導入する。
論文 参考訳(メタデータ) (2020-10-09T15:42:35Z) - Rectifying Pseudo Label Learning via Uncertainty Estimation for Domain
Adaptive Semantic Segmentation [49.295165476818866]
本稿では、意味的セグメンテーションの文脈において、ソースドメインからターゲットドメインへの知識伝達の教師なし領域適応に焦点を当てる。
既存のアプローチでは、通常、擬似ラベルを未ラベルのターゲットドメインデータを完全に活用するための基礎的真理とみなす。
本稿では,擬似ラベル学習の修正のために,学習中の予測の不確かさを明示的に推定することを提案する。
論文 参考訳(メタデータ) (2020-03-08T12:37:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。