論文の概要: The Last Mile to Supervised Performance: Semi-Supervised Domain Adaptation for Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2411.18728v1
- Date: Wed, 27 Nov 2024 20:07:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-02 15:21:54.718930
- Title: The Last Mile to Supervised Performance: Semi-Supervised Domain Adaptation for Semantic Segmentation
- Title(参考訳): セミスーパービジョンによるセマンティックセグメンテーションのためのドメイン適応
- Authors: Daniel Morales-Brotons, Grigorios Chrysos, Stratis Tzoumas, Volkan Cevher,
- Abstract要約: 半スーパービジョンドメイン適応(SSDA)の有望な設定について検討する。
本稿では,整合性正規化,画素コントラスト学習,自己学習を組み合わせたシンプルなSSDAフレームワークを提案し,いくつかのターゲットドメインラベルを効果的に活用する。
提案手法は,GTA-to-Cityscapesベンチマークにおいて先行技術よりも優れており,50個のターゲットラベルがほぼ教師付き性能を達成するのに十分であることを示す。
- 参考スコア(独自算出の注目度): 51.77968964691317
- License:
- Abstract: Supervised deep learning requires massive labeled datasets, but obtaining annotations is not always easy or possible, especially for dense tasks like semantic segmentation. To overcome this issue, numerous works explore Unsupervised Domain Adaptation (UDA), which uses a labeled dataset from another domain (source), or Semi-Supervised Learning (SSL), which trains on a partially labeled set. Despite the success of UDA and SSL, reaching supervised performance at a low annotation cost remains a notoriously elusive goal. To address this, we study the promising setting of Semi-Supervised Domain Adaptation (SSDA). We propose a simple SSDA framework that combines consistency regularization, pixel contrastive learning, and self-training to effectively utilize a few target-domain labels. Our method outperforms prior art in the popular GTA-to-Cityscapes benchmark and shows that as little as 50 target labels can suffice to achieve near-supervised performance. Additional results on Synthia-to-Cityscapes, GTA-to-BDD and Synthia-to-BDD further demonstrate the effectiveness and practical utility of the method. Lastly, we find that existing UDA and SSL methods are not well-suited for the SSDA setting and discuss design patterns to adapt them.
- Abstract(参考訳): 監視されたディープラーニングには大量のラベル付きデータセットが必要ですが、特にセマンティックセグメンテーションのような密集したタスクにおいて、アノテーションの取得は常に簡単あるいは可能ではありません。
この問題を解決するために、他のドメイン(ソース)からラベル付きデータセットを使用するUnsupervised Domain Adaptation (UDA)や、部分的にラベル付きセットをトレーニングするSemi-Supervised Learning (SSL)など、数多くの研究が行われている。
UDAとSSLの成功にもかかわらず、低いアノテーションコストで教師付きパフォーマンスに達することは、非常にありふれた目標である。
そこで本研究では,Semi-Supervised Domain Adaptation (SSDA) の有望な設定について検討する。
本稿では,整合性正規化,画素コントラスト学習,自己学習を組み合わせたシンプルなSSDAフレームワークを提案し,いくつかのターゲットドメインラベルを効果的に活用する。
提案手法は,GTA-to-Cityscapesベンチマークにおいて先行技術よりも優れており,50個のターゲットラベルがほぼ教師付き性能を達成するのに十分であることを示す。
Synthia-to-Cityscapes、GTA-to-BDD、Synthia-to-BDDのさらなる成果は、この方法の有効性と実用性を示している。
最後に、既存のUDAおよびSSLメソッドはSSDA設定に適していないことを発見し、それらを適用する設計パターンについて議論する。
関連論文リスト
- SS-ADA: A Semi-Supervised Active Domain Adaptation Framework for Semantic Segmentation [25.929173344653158]
セマンティックセグメンテーションのための半教師付きアクティブドメイン適応(SS-ADA)フレームワークを提案する。
SS-ADAは、アクティブラーニングを半教師付きセマンティックセグメンテーションに統合し、教師付き学習の精度を達成する。
本研究では,合成ドメイン適応設定と実ドメイン適応設定について広範な実験を行った。
論文 参考訳(メタデータ) (2024-06-17T13:40:42Z) - ECAP: Extensive Cut-and-Paste Augmentation for Unsupervised Domain
Adaptive Semantic Segmentation [4.082799056366928]
本稿では,データ拡張を通じて信頼性の高い擬似ラベルを活用するための広範囲なカット・アンド・ペースト戦略(ECAP)を提案する。
ECAPはトレーニングを通じて擬似ラベル付きターゲットサンプルのメモリバンクを保持し、現在のトレーニングバッチに最も自信のあるサンプルをカット&ペーストする。
我々は,最近のMIC法に基づいてECPを実装し,その性能を2つの合成-実領域適応ベンチマークで向上させる。
論文 参考訳(メタデータ) (2024-03-06T17:06:07Z) - SAM4UDASS: When SAM Meets Unsupervised Domain Adaptive Semantic
Segmentation in Intelligent Vehicles [27.405213492173186]
SAM4UDASSは,Segment Anything Model(SAM)を擬似ラベルを書き換える自己学習 UDA 手法に組み込んだ新しいアプローチである。
Semantic-Guided Mask Labelingは、UDAの擬似ラベルを使用して、セマンティックラベルを未ラベルのSAMマスクに割り当てる。
DAFormerを使用すると、GTA5-to-Cityscapes、SynTHIA-to-Cityscapes、Cityscapes-to-ACDCで3%以上のmIoUが得られ、MICを使用するとSOTAが達成される。
論文 参考訳(メタデータ) (2023-11-22T08:29:45Z) - LESS: Label-Efficient Semantic Segmentation for LiDAR Point Clouds [62.49198183539889]
我々は,LiDAR点雲を用いた屋外シーンのためのラベル効率のよいセマンティックセマンティックセマンティクスパイプラインを提案する。
本手法は,半弱教師付き学習を用いて,効率的なラベリング手法を設計する。
提案手法は,100%ラベル付き完全教師付き手法と比較して,さらに競争力が高い。
論文 参考訳(メタデータ) (2022-10-14T19:13:36Z) - Bi-level Alignment for Cross-Domain Crowd Counting [113.78303285148041]
現在の手法は、補助的なタスクを訓練したり、高価な粗大な見積もりを適用したりするための外部データに依存している。
そこで我々は, 簡易かつ効率的に適用可能な, 逆学習に基づく新しい手法を開発した。
実世界の5つのクラウドカウントベンチマークに対するアプローチを評価し、既存のアプローチを大きなマージンで上回ります。
論文 参考訳(メタデータ) (2022-05-12T02:23:25Z) - Improving Semi-Supervised and Domain-Adaptive Semantic Segmentation with
Self-Supervised Depth Estimation [94.16816278191477]
本稿では,セミアダプティブなセマンティックセマンティックセマンティックセグメンテーションのためのフレームワークを提案する。
ラベルのない画像シーケンスでのみ訓練された自己教師付き単眼深度推定によって強化される。
提案したモデルをCityscapesデータセット上で検証する。
論文 参考訳(メタデータ) (2021-08-28T01:33:38Z) - A Simple Baseline for Semi-supervised Semantic Segmentation with Strong
Data Augmentation [74.8791451327354]
セマンティックセグメンテーションのためのシンプルで効果的な半教師付き学習フレームワークを提案する。
単純な設計とトレーニングのテクニックのセットは、半教師付きセマンティックセグメンテーションの性能を大幅に向上させることができる。
本手法は,Cityscapes と Pascal VOC データセットの半教師付き設定において,最先端の処理結果を実現する。
論文 参考訳(メタデータ) (2021-04-15T06:01:39Z) - Semi-supervised Domain Adaptation based on Dual-level Domain Mixing for
Semantic Segmentation [34.790169990156684]
私たちは、少数のラベル付きターゲットデータと大量のラベル付きソースデータが利用可能である半監視ドメイン適応(SSDA)のより実用的な設定に焦点を当てています。
領域レベルとサンプルレベルのドメインギャップを低減する2種類のデータミキシング手法を提案する。
総合的視点と部分的視点から2段階の混合データに基づいて,2つの相補的ドメイン混合教師を得ることができる。
論文 参考訳(メタデータ) (2021-03-08T12:33:17Z) - Deep Co-Training with Task Decomposition for Semi-Supervised Domain
Adaptation [80.55236691733506]
半教師付きドメイン適応(SSDA)は、ラベル付きソースドメインからトレーニングされたモデルを、異なるが関連するターゲットドメインに適応させることを目的としている。
本稿では,SSDAタスクを対象ドメイン内の半教師付き学習(SSL)タスクと,ドメイン間の非教師付きドメイン適応(UDA)タスクの2つのサブタスクに明示的に分解することを提案する。
論文 参考訳(メタデータ) (2020-07-24T17:57:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。