論文の概要: Cooperative Self-Training for Multi-Target Adaptive Semantic
Segmentation
- arxiv url: http://arxiv.org/abs/2210.01578v1
- Date: Tue, 4 Oct 2022 13:03:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 14:33:37.741194
- Title: Cooperative Self-Training for Multi-Target Adaptive Semantic
Segmentation
- Title(参考訳): 多目的適応的セマンティクスセグメンテーションのための協調学習
- Authors: Yangsong Zhang, Subhankar Roy, Hongtao Lu, Elisa Ricci, St\'ephane
Lathuili\`ere
- Abstract要約: 複数のドメイン固有分類器間の協調を誘導するために擬似ラベルを用いた自己学習戦略を提案する。
我々は、自己学習の不可欠な部分を形成する画像ビューを生成する効率的な方法として、特徴スタイリングを採用している。
- 参考スコア(独自算出の注目度): 26.79776306494929
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work we address multi-target domain adaptation (MTDA) in semantic
segmentation, which consists in adapting a single model from an annotated
source dataset to multiple unannotated target datasets that differ in their
underlying data distributions. To address MTDA, we propose a self-training
strategy that employs pseudo-labels to induce cooperation among multiple
domain-specific classifiers. We employ feature stylization as an efficient way
to generate image views that forms an integral part of self-training.
Additionally, to prevent the network from overfitting to noisy pseudo-labels,
we devise a rectification strategy that leverages the predictions from
different classifiers to estimate the quality of pseudo-labels. Our extensive
experiments on numerous settings, based on four different semantic segmentation
datasets, validate the effectiveness of the proposed self-training strategy and
show that our method outperforms state-of-the-art MTDA approaches. Code
available at: https://github.com/Mael-zys/CoaST
- Abstract(参考訳): この論文では、意味セグメンテーションにおけるマルチターゲットドメイン適応(mtda)について論じる。これは、アノテートされたソースデータセットから、基礎となるデータ分布が異なる複数の無注釈のターゲットデータセットへ、単一のモデルを適用することで構成される。
MTDAに対処するために,複数のドメイン固有分類器間の協調を誘導する擬似ラベルを用いた自己学習戦略を提案する。
自己学習の不可欠な部分を形成する画像ビューを生成する効率的な方法として,機能スタイライゼーションを採用している。
さらに,ネットワークが擬似ラベルに過度に収まらないようにするために,異なる分類器からの予測を利用して擬似ラベルの品質を推定する補正戦略を考案した。
4つの異なるセマンティックセグメンテーションデータセットに基づく多種多様なセグメンテーション実験を行い、提案手法の有効性を検証し、提案手法が最先端MTDA手法より優れていることを示す。
コード提供: https://github.com/mael-zys/coast
関連論文リスト
- IDA: Informed Domain Adaptive Semantic Segmentation [51.12107564372869]
クラスレベルのセグメンテーション性能に基づいてデータを混合する自己学習フレームワークであるDomain Informed Adaptation (IDA) モデルを提案する。
IDAモデルでは、クラスレベルの性能を期待信頼スコア(ECS)によって追跡し、動的スケジュールを用いて異なる領域のデータに対する混合比を決定する。
提案手法は,GTA-Vの都市景観への適応において1.1 mIoU,SynTHIAの都市への適応において0.9 mIoUのマージンで,最先端のUDA-SS法よりも優れる。
論文 参考訳(メタデータ) (2023-03-05T18:16:34Z) - Multi-Source Soft Pseudo-Label Learning with Domain Similarity-based
Weighting for Semantic Segmentation [2.127049691404299]
本稿では,複数のソースデータセットを用いたセマンティックセグメンテーションのためのドメイン適応トレーニング手法について述べる。
複数のソースモデルから予測対象確率を統合することで,ソフトな擬似ラベル生成手法を提案する。
論文 参考訳(メタデータ) (2023-03-02T05:20:36Z) - Scaling up Multi-domain Semantic Segmentation with Sentence Embeddings [81.09026586111811]
ゼロショット設定に適用した場合、最先端の教師付き性能を実現するセマンティックセマンティックセマンティクスへのアプローチを提案する。
これは各クラスラベルを、クラスを記述する短い段落のベクトル値の埋め込みに置き換えることによって達成される。
結果として得られた200万以上の画像の統合セマンティックセグメンテーションデータセットは、7つのベンチマークデータセット上の最先端の教師付きメソッドと同等のパフォーマンスを達成するモデルをトレーニングすることができる。
論文 参考訳(メタデータ) (2022-02-04T07:19:09Z) - Adapting Segmentation Networks to New Domains by Disentangling Latent
Representations [14.050836886292869]
ドメイン適応アプローチは、ラベルを持つソースドメインから取得した知識を関連するラベルを持つターゲットドメインに転送する役割を担っている。
本稿では,教師付きトレーニングと比較して適応戦略の相対的有効性を捉えるための新しい性能指標を提案する。
論文 参考訳(メタデータ) (2021-08-06T09:43:07Z) - Multi-dataset Pretraining: A Unified Model for Semantic Segmentation [97.61605021985062]
我々は、異なるデータセットの断片化アノテーションを最大限に活用するために、マルチデータセット事前訓練と呼ばれる統合フレームワークを提案する。
これは、複数のデータセットに対して提案されたピクセルからプロトタイプへのコントラスト損失を通じてネットワークを事前トレーニングすることで実現される。
異なるデータセットからの画像とクラス間の関係をより良くモデル化するために、クロスデータセットの混合によりピクセルレベルの埋め込みを拡張する。
論文 参考訳(メタデータ) (2021-06-08T06:13:11Z) - Instance Level Affinity-Based Transfer for Unsupervised Domain
Adaptation [74.71931918541748]
ILA-DAと呼ばれる適応中のソースからターゲットへの転送に対するインスタンス親和性に基づく基準を提案する。
まず、ソースとターゲットをまたいだ類似および異種サンプルを抽出し、マルチサンプルのコントラスト損失を利用してドメインアライメントプロセスを駆動する信頼性が高く効率的な手法を提案する。
ILA-DAの有効性は、様々なベンチマークデータセットに対する一般的なドメイン適応手法よりも精度が一貫した改善を観察することによって検証する。
論文 参考訳(メタデータ) (2021-04-03T01:33:14Z) - Curriculum Graph Co-Teaching for Multi-Target Domain Adaptation [78.28390172958643]
マルチターゲットドメイン適応(MTDA)における複数のドメインシフトを軽減するのに役立つ2つの重要な側面を同定する。
本論文では,二重分類器ヘッドを用いたCGCT(Curriculum Graph Co-Teaching)を提案する。そのうちの1つがグラフ畳み込みネットワーク(GCN)である。
ドメインラベルが利用可能になると、まずより簡単なターゲットドメインに適応し、続いて難しいドメインに適応する逐次適応戦略であるDomain-Aware Curriculum Learning (DCL)を提案する。
論文 参考訳(メタデータ) (2021-04-01T23:41:41Z) - Your Classifier can Secretly Suffice Multi-Source Domain Adaptation [72.47706604261992]
マルチソースドメイン適応(MSDA)は、複数のラベル付きソースドメインからラベルなしターゲットドメインへのタスク知識の転送を扱う。
ラベル管理下のドメインを暗黙的に整列させる深層モデルが観察されるMSDAに対して、異なる視点を提示する。
論文 参考訳(メタデータ) (2021-03-20T12:44:13Z) - Multi-Source Domain Adaptation with Collaborative Learning for Semantic
Segmentation [32.95273803359897]
マルチソース非監視ドメイン適応(MSDA)は、複数のラベル付きソースドメインで訓練されたモデルをラベル付きターゲットドメインに適応することを目的とする。
セマンティックセグメンテーションのための協調学習に基づく新しいマルチソースドメイン適応フレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-08T12:51:42Z) - Learn by Guessing: Multi-Step Pseudo-Label Refinement for Person
Re-Identification [0.0]
有望なアプローチは、パイプラインの一部として教師なし学習を使用することに依存する。
本稿では,最善のクラスタを選択できるマルチステップ擬似ラベルリファインメント手法を提案する。
我々は、Market1501-DukeMTMCデータセットでUDA Re-IDの最先端を3.4%上回る。
論文 参考訳(メタデータ) (2021-01-04T20:00:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。